azure - 有没有办法将数据从 Azure Blob 持续传输到 BigQuery?

标签 azure google-bigquery azure-blob-storage data-pipeline

我在 Azure Blob 存储中有一堆文件,并且不断增加新文件。我想知道是否有一种方法可以让我首先获取 Blob 中的所有数据并将其移至 BigQuery,然后保持脚本或某些作业运行,以便其中的所有新数据都发送至 BigQuery?

最佳答案

BigQuery 提供对 querying data directly from these external data sources 的支持:Google Cloud BigtableGoogle Cloud StorageGoogle Drive。不包括 Azure Blob 存储。正如 Adam Lydick 提到的,作为一种解决方法,您可以将数据/文件从 Azure Blob 存储复制到 Google Cloud Storage(或其他支持 BigQuery 的外部数据源)。

要将数据从 Azure Blob 存储复制到 Google Cloud Storage,您可以运行 WebJobs (或 Azure Functions )和 BlobTriggerred WebJob可以在创建或更新 blob 时触发函数,在 WebJob 函数中,您可以访问 blob 内容并将其写入/上传到 Google Cloud Storage。

注意:我们可以安装这个库:Google.Cloud.Storage在客户端代码中进行常见操作。和this blog解释了如何在 Azure Functions 中使用 Google.Cloud.Storage sdk。

关于azure - 有没有办法将数据从 Azure Blob 持续传输到 BigQuery?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44806345/

相关文章:

c# - Azure C# 宇宙数据库 : Required property 'id' missing when inserting data

azure - 使用单个 PowerShell 命令在 Classic 和 ARM VM 上安装扩展

python - 是否可以编写一个 BigQuery 来检索 PyPI 下载随时间的分箱计数?

google-bigquery - 使用带有空字段的数据流进行 Bigquery 流式插入

azure - az 存储帐户网络规则不适用于 Microsoft 托管代理 (Azure DevOps)

c# - 如何在 Azure Blob 流中启用搜索

Windows Azure : Creating a subdirectories inside the blob

.net - Azure 表检索/转换数据问题

azure - X509Certificate2 在调用 Google API 的 Azure Webjobs 中失败

mysql - 有没有办法将 "migrate"与 Wordpress 一起使用的现有 MySQL 数据库迁移到 Azure Blob 存储?