google-cloud-data-fusion - 谁能帮我解决数据融合中的这个错误代码

标签 google-cloud-data-fusion

我正在尝试创建我的第一个数据融合管道。 数据将从 Google Cloud Storage csv 文件传输到 Big Query。

我已经创建了管道并进行了预览运行,该运行成功,但在部署后尝试运行导致错误。

除了明显配置我的源和目标之外,我几乎接受了所有默认设置。

日志错误...

com.google.api.client.googleapis.json.GoogleJsonResponseException: 403 
Forbidden
{
"code" : 403,
"errors" : [ {
"domain" : "global",
"message" : "Required 'compute.firewalls.list' permission for 
'projects/xxxxxxxxxxx'",
"reason" : "forbidden"
} ],
"message" : "Required 'compute.firewalls.list' permission for 
'projects/xxxxxxxxxx'"
}

部署运行失败后

最佳答案

请注意,作为创建实例的一部分,您必须设置权限 [0]。必须将“Cloud Data Fusion API 服务代理”角色授予该文档中指定的确切服务帐户,该帐户的电子邮件地址以“cloud-datafusion-management-sa@...”开头。 这样做应该可以解决您的问题。

[0] : https://cloud.google.com/data-fusion/docs/how-to/create-instance#setting_up_permissions

关于google-cloud-data-fusion - 谁能帮我解决数据融合中的这个错误代码,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56128760/

相关文章:

google-cloud-data-fusion - 如何安排谷歌数据融合管道?

google-cloud-data-fusion - 谷歌云数据融合 : How to change datatype from string to date?

google-cloud-data-fusion - 在云数据融合中使用多字符定界符

google-cloud-platform - Cloud Data Fusion storagebucketslist 权限问题

google-cloud-data-fusion - regex_path_filter 如何在 GCP 中 DATA FUSION 管道的 GCSFile 属性中工作

google-cloud-platform - 如何使用 Data Fusion/Cloud Composer 在 GCP 上安排 Dataproc PySpark 作业

Elasticsearch 到 BigQuery 管道部署在云数据融合实例上失败

google-cloud-data-fusion - BigQuery - 无法在不同位置读取和写入 : source: EU, 目的地:美国

google-cloud-platform - GCP Data Fusion 没有可发现的错误

google-cloud-data-fusion - 云数据融合牧马人停留在启用状态