python - 如何从 Azure 数据工厂管道将参数传递给 python 脚本

标签 python pyspark azure-data-factory pipeline azure-databricks

我正在构建一个 Azure 数据工厂管道,我想知道如何获取此 parameter进入Python脚本。

Python 脚本位于 Databricks (DBFS) 中,并从 Azure DataFactory 运行。因此,在我的 ADF 管道中,我有一些参数,我想在 python 脚本中引入和使用它们。

知道它是如何工作的吗?

最佳答案

从sys导入argv,然后使用argv[1]获取databricks事件中的参数。

关于python - 如何从 Azure 数据工厂管道将参数传递给 python 脚本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67718773/

相关文章:

python - tensorflow.python.framework.errors_impl.NotFoundError : Op type not registered 'FertileStatsResourceHandleOp' in binary running on NS80011718

python - 在pyspark中解析一行中的多个json

azure - Azure Databricks 中的外部属性文件

python - 在flask-sqlalchemy中使用with_entities()返回自定义属性?

Python - 类定义中的多个@property 语句?

apache-spark - 无法从 Spark 连接到 cassandra

Azure 数据工厂架构,包含 Azure SQL 数据库到 Power BI

c# - 为什么我们需要在 Azure 数据工厂中进行 ML 批量执行和更新资源选项

azure-data-factory - 当源中没有可用文件时,Azure 数据工厂管道失败

Python 模拟 AWS SSM