python - 如何将一个模块导入到databricks笔记本中的另一个模块?

标签 python module databricks

这是我在 Databricks 中的 config.py

DATA_S3_LOCATION='s3://server-data/data1'
DATA_S3_FILE_TYPE='orc'
DATA2_S3_LOCATION='s3://server-data/data2'
DATA2_S3_FILE_TYPE='orc'

我有init。 py 也在此文件夹中

我正在尝试访问另一个文件中的这些变量

import sys
sys.path.insert(1,'/Users/file')
from file import config

我遇到错误,没有名为文件的模块

最佳答案

这里有几个方面。

  • 如果这些文件是笔记本,则需要使用 %run ./config 包含当前目录 ( doc ) 中的笔记本
  • 如果您使用Databricks Repos并且启用了任意文件支持,那么您的代码需要是 Python 文件,而不是笔记本,并且具有 __init__.py 等正确的目录布局。在这种情况下,您可以使用 Python 导入。您的存储库目录将自动添加到 sys.path 中,您无需修改​​它。

附注我有一个example包含笔记本和 Python 文件方法的存储库。

关于python - 如何将一个模块导入到databricks笔记本中的另一个模块?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71852262/

相关文章:

python - 在开发多宿主可靠 udp 时,如何使用 mininet 检测链接是否已关闭?

python - "group by"具有字典推导式的聚合函数

java - 为什么我无法在导入的模块中使用 Jython 类?

haskell - 在 Haskell 中写或不写 `module Main where`

databricks - Azure 数据 block 存储库 : how to pull via API

python - 根据另一个列表给出的索引号拆分列表

python - 使用 python 对大量数字序列进行哈希处理、创建哈希集、存储和比较集合的相似性

python - 如何判断 Python 模块是否是命名空间模块

scala - 通过 Scala Spark 并行读取单独的目录并创建单独的 RDD

java - 如何通过 Spark Listener 检查 Databricks 上是否安装了类?