python-3.x - 是否可以将 pyRFC 安装到 Databricks Spark 集群上?

标签 python-3.x databricks saprfc pyrfc

有一个 Py-pi pyRFC ,但和所有其他C-python库一样,它有很多依赖项,需要设置环境变量等。

是否可以将像 pyRFC 这样的 c-python 库安装到 Databricks 集群上?如果是这样,您将如何包含 SDK 依赖项?

也许有人已经尝试过 Java 版本?

最佳答案

是的,这是可能的。通常通过附加 cluster init script 来完成到一个集群。集群初始化脚本的任务是在所有集群节点上设置所有必要的依赖项、编译库/安装包等。通常,人们会下载他们的软件包等并将它们放在 DBFS 上。 ,然后使用 /dbfs 挂载从 init 脚本内部访问它们。

脚本可能如下所示(仅示例):

#!/bin/bash

# Unpack SAP SDK into some location
tar zxvf /dbfs/FileStore/SAP-SDK.tar.gz

# install package
pip install pyrfc

关于python-3.x - 是否可以将 pyRFC 安装到 Databricks Spark 集群上?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/75661949/

相关文章:

python - 从循环 if 语句中提取 pandas timeseries 数据帧的子集

python - 如何从字典初始化 SimpleNamespace

apache-spark - Spark/Databricks SQL 输出中的时间戳时区错误/缺失

asynchronous - 在不使用函数模块调用的情况下启动新线程

python - 如何在 tensorflow 中更新张量内的子张量?

python - 运行代码时 Pygame 没有响应

java - 将 iDOC 从 Java 发送到 SAP

interface - SAP .NET 连接器 : System exception thrown while marshaling . NET 类型

azure - DBFS AZURE Databricks - 文件存储和 DBFS 的差异

csv - Spark 数据帧保存在 hdfs 位置的单个文件中