google-cloud-dataflow - Google Cloud Pub/Sub 到 BigQuery 模板主题订阅

标签 google-cloud-dataflow google-cloud-pubsub

创建新的 Dataflow Pub/Sub 到 BigQuery 模板时,可以指定 PubSub 主题。似乎无法提供现有的 PubSub 订阅,而是 Dataflow 模板每次运行时都会创建一个新订阅。

据我了解 PubSub 模型,确保我们继续从主题中同一位置读取数据的唯一方法是重用相同的订阅,但这里似乎没有这样的选项。

当用户想要重新部署这样的数据流模板时会发生什么?我们会丢失部署之间的所有数据吗?

最佳答案

你是对的,Google 提供的 Pub/Sub 到 BigQuery 模板不支持将订阅作为参数传递( here 是 Google 员工确认这一点的旧答案)。然而,编辑它应该很容易,这样它就可以实现。您只需要替换 getInputTopicgetSubscription 等效。反过来,这应该传递给 PubsubIO.readMessagesWithAttributes().fromSubscription (options.getSubscription()) 方法(请参阅 here )而不是 fromTopic。创建新管道后,您需要创建并暂存 template .

关于google-cloud-dataflow - Google Cloud Pub/Sub 到 BigQuery 模板主题订阅,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52383323/

相关文章:

google-bigquery - 以编程方式创建日期分区表

python-2.7 - GCP 发布订阅 : Synchronous Pull Subscriber in Python?

java - Apache 光束 : cannot access Pub/Sub Emulator via docker-compose

java - 使用TableRowJsonCoder将PubSub消息转换为BEAM中的TableRow

scala - 如何在 Cloud Dataflow 中使用 TextIO.Read 匹配多个文件的名称

google-bigquery - 如何将 PCollection 转换为 python 数据流中的列表

python - Google Dataflow python 快速启动错误 - GcsIO 没有属性

python - 使用 Apache Beam python 创建谷歌云数据流模板时出现 RuntimeValueProviderError

google-cloud-pubsub - 将 Google PubSub 消息从一个主题转发到另一主题

Kubernetes 动态作业扩展