我有 Azure 数据管道,我必须将参数传递给 Databricks 事件。我为该事件添加了多个基于事件的触发器(blob 文件夹的更新)。当特定触发器被激活时,它应该将一个参数传递给 Databricks 事件,并基于该笔记本应该运行。有没有办法将参数从基于事件的触发器传递到 Databricks 笔记本事件?
最佳答案
触发器给出 2 个参数。
@triggerBody().fileName
@triggerBody().folderPath
您必须将其添加到触发器的 JSON 代码中
"parameters": {
"FPath": "@triggerBody().folderPath"
}
将此参数用作管道变量@triggerBody().FPath
,并将该变量与其他事件一起使用。详细说明请引用以下链接
https://www.mssqltips.com/sqlservertip/6063/create-event-based-trigger-in-azure-data-factory/
关于azure - 根据触发器将参数传递给 Azure 数据工厂-ADF 事件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60482638/