google-bigquery - 从 Cloud Dataflow 代码调用存储过程

标签 google-bigquery google-cloud-dataflow apache-beam

是否可以直接从 Cloud Dataflow 代码调用“存储过程”。我已经将一些数据转储到 Bigquery 表中,并且我想在这些数据上应用一个存储过程(当这些数据在 SQL 系统中时使用)。我是否也可以在 Dataflow 代码中使用相同的存储过程或任何解决方法?

最佳答案

不,BigQuery 不支持存储过程。在您的 Dataflow 管道中,您可以从管道本身或管道外部向 BigQuery 发出普通 SQL。

关于google-bigquery - 从 Cloud Dataflow 代码调用存储过程,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45873376/

相关文章:

google-cloud-dataflow - 用于暂存位置的 GCS URI 无效

python - 如何通过侧面输入将两个 Pcollections(各种大小/数据)与一个公共(public) "key"(街道)合并?

java - 无法在本地运行 GCP DataflowTemplates

firebase - 来自 Firebase Analytics 的事件不会显示在 Big Query 中

google-bigquery - 尝试使用 BigQuery 计算 EMA(指数移动平均线)

java - 未上传数据,但使用 java 在 bigquery 加载作业中作业状态为 DONE

java - 使用 Google Dataflow 在批处理模式下使用 KafkaIO 进行消费

java - 流式传输到 BigQuery 表的数据何时可用于查询操作?

python - GCP Dataflow + Apache Beam - 缓存问题

java - 将 Apache Beam 的 PCollection 对象收集到驱动程序内存中