python - 如何在 Python 中迭代 GCP 项目中的所有 DataProc 集群?

标签 python google-cloud-platform google-cloud-functions google-cloud-dataproc

我正在尝试创建一个谷歌云函数来迭代所有当前正在运行的 DataProc 集群,但是 dataproc.list_functions() 方法要求将区域作为参数传入。我们有多个集群在多个区域同时处于事件状态。

有没有什么方法可以在 Python 中检索区域列表并将对 list_functions 的调用包装在遍历所有区域的 for 循环中?

例如:

for region in regions:
    for cluster in client.list_clusters('project', region):
        do_stuff()

最佳答案

您可以使用 Compute 客户端列出项目中的可用区域:

from googleapiclient import discovery

def get_regions(project):
    compute_client = discovery.build('compute', 'v1')

    regions = compute_client.regions().list(project=project).execute()

    region_names = []
    for r in regions["items"]:
        region_names.append(r["name"])

    return region_names

关于python - 如何在 Python 中迭代 GCP 项目中的所有 DataProc 集群?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56254242/

相关文章:

python - 如何让 Python 脚本在退出时退出 shell?

python - 在python 3.6.2最近安装的包中安装PyICU时出错

node.js - GCP - Compute Engine to Storage per group/user access ACL with custom Auth system

typescript - 如何使用Firebase模拟器pubsub在本地测试定时功能?

python - Nginx 的工作进程挂起并占用完整的 CPU

go - 当前用于 Google Dataflow 的 GoLang SDK 是否支持自动缩放和并行处理?

mysql - 在 Google Appengine 上接收 SQLNonTransientConnectionException

node.js - 使用 Dialogflow Conv.Data 或 Conv.User.Storage 的简单计数器

git - 如何在私有(private)存储库中使用带有依赖项的 Go 运行 Google Cloud Function?

python - 检查 sqlalchemy 中的表兼容性