azure - 流分析作业 -> 数据湖输出

标签 azure azure-data-lake azure-stream-analytics

我想使用 StreamAnalytics 作业设置 CI/CD(ARM 模板),并将输出设置为 DataLake Store。 https://learn.microsoft.com/en-us/azure/templates/microsoft.streamanalytics/streamingjobs/outputs#microsoftdatalakeaccounts

问题来自于刷新 token : “建议在创建数据源时在此处放置一个虚拟字符串值 然后去Azure Portal验证数据源 这将使用有效的刷新 token 更新此属性”

此外,90 天刷新 token 已过时,您需要进行“Renvew 授权” https://learn.microsoft.com/en-us/azure/stream-analytics/stream-analytics-data-lake-output#renew-data-lake-store-authorization

我尝试授权 ServicePrincipal。

如何使用 DataLake 进行 ASA 的自动部署? 如何处理 90 天 token 有效期的问题?

也许你擦掉了踪迹:)

最佳答案

目前还不可能。带来不便敬请谅解。但是我们知道这非常重要,我们将在不久的将来添加服务主体身份验证(我们正在查看确切的 ETA)。

与此同时,您需要手动续订 token 。通过 (1) 停止作业,(2) 更改 token ,然后 (3) 重新启动上次停止的作业,可以在不丢失任何数据的情况下完成此操作。

如果您还有任何其他问题,请告诉我。

关于azure - 流分析作业 -> 数据湖输出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48948568/

相关文章:

Azure Runbook - 作业无法停止

azure - 在外部表中查询特定列时,列名称也显示为一行

azure - 将表从 azure SQL 数据库迁移到 Azure 数据湖

azure - 是否有推荐的方法来获取网络应用程序的实时数据?

azure - 流分析作业存在验证错误 : Job will exceed the maximum amount of Event Hub Receivers.

mysql - Kusto KQL 相当于带有值的 LIKE CONCAT 列 (mysql)

azure - 控制Azure静态网站中的缓存

node.js - 如何从 Nodejs 中的同步 Azure 函数返回结果

azure - 将 DataFrame 从 Databricks 写入 Data Lake

azure - 流分析作业最多只能使用 6 个流单元