google-cloud-platform - 我们可以将值传递到正在运行的 GCP Cloud Composer Pipeline 吗?

标签 google-cloud-platform airflow google-cloud-dataproc google-cloud-composer

如果我使用 Cloud Composer 安排了 Dataproc 工作流模板,我可以通过 Cloud Composer 环境将值传递给工作流模板内存在的 dataproc 作业吗? 如果是,请注明来源。 提前致谢!

最佳答案

如果您使用DataprocInstantiateWorkflowTemplateOperator运算符,然后您可以使用参数 argument这是“Dataproc 模板的参数映射”。

事实上,parameters 参数是模板化字段之一,这意味着它可以使用以下方式进行配置:

  • DAG 通过 macros 运行配置(使用 {{ dag_run.conf }})
  • Airflow variables (例如使用 {{ var.value.get('my.var', 'fallback') }})
  • 环境变量 (os.environ.get)

如果您不需要不时更改这些参数,您也可以对此参数进行硬编码。

关于google-cloud-platform - 我们可以将值传递到正在运行的 GCP Cloud Composer Pipeline 吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68978990/

相关文章:

hadoop - Dataproc 上的增量 Sqoop 给出 "util.AppendUtils: Cannot append files to target dir; no such directory"

google-cloud-platform - 代码 : 4010 - Connection via Cloud Identity-Aware Proxy Failed

google-cloud-platform - 处理多个发布订阅主题的数据流管道设计

google-cloud-storage - 如何使用 gsutil 命令在 google storage(bucket) 中创建一个空文件夹?

kubernetes - Airflow/k8s : How do I correctly set permissions for DAGs stored in a persistent volume?

apache-spark - GCP 上的 PySpark PandasUDF - 内存分配

javascript - 尝试使用 Nodejs 8 加载 GoogleCloud 数据存储模块时出现 "Provided module can' t 加载错误

python - 通过 gcloud 发送 Hadoop 作业

python - Airflow 任务信息 - 任务退出并返回代码 -9

apache-spark - DataFrameReader 在读取 avro 文件时抛出 "Unsupported type NULL"