Azure:编排文件传输 - 哪些 Azure 组件最适合?

标签 azure azure-functions azure-data-factory azure-logic-apps file-transfer

我有一个项目,需要在 20 多个系统之间传输文件(主要是基于 SFTP,但也有 HTTP)。我们目前已识别出超过 200 个需要传输的不同文件。我们希望在 Azure 中进行设置,可以设置、监视和记录不同的传输,但是,我们不确定该走哪条路。

问题是:哪些 Azure 组件最适合上述任务?您会使用哪些组件?

一种可能的解决方案是实现大量 Azure 函数,每个函数负责一个文件传输。这就需要我们自己去设置监控,而且会导致功能非常多。

我们也一直在关注 Azure 数据工厂和 Azure 逻辑应用程序,但我们不确定它们是否会在监视、重新运行失败的作业等方面提供任何好处。

最佳答案

正如您在描述中已经提到的,显然,Azure Function 不适合您的场景,因为您必须构建大量函数来完成传输工作。而且,监控如此规模的函数执行是很痛苦的。您需要区分日志数据并将其持久化到表存储或类似的存储中,这会导致更多成本。那么,就通过了!

我认为ADF是最适合您的解决方案。它可以通过many ways进行监控并且支持重新运行功能,请关注此video此外,ADF 的另一个独特功能是自托管集成运行时,它支持本地系统和 Azure 云环境之间的传输。

至于Logic App,我找不到任何与之相关的重新运行功能,所以我认为它不会引起您的注意。

关于Azure:编排文件传输 - 哪些 Azure 组件最适合?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60811806/

相关文章:

Azure DevOps 数据工厂数据集和管道 CI/CD 参数

c# - 将多行 JSON 反序列化为 C# 对象

Azure 数据工厂具有两个 Azure Sql 接收器并以替代方式加载数据

c# - 如何使用一个 Dockerfile 处理多个项目?

azure - 如何从 Azure 应用服务连接到非标准端口上的外部服务?

azure - 是否可以在 Azure Pipelines 模板 yaml 中混合映射参数?如何?

python-3.x - 在 Azure 函数中使用 Python 文件 - 只读文件系统

node.js - Azure Functions 未记录 App Insights 中的所有跟踪

javascript - 在不使用 Ajax 调用服务器等的情况下实现 Web 应用程序的通知

windows - Azure 站点恢复无法安装在独立 Windows Server 2016 Core 上 - C++ 模块无法加载