python - 从bigquery加载大数据到python

标签 python google-bigquery google-cloud-platform google-python-api

from google.cloud import bigquery as bq
import google_auth_oauthlib.flow

query = '''select ... from ...'''

bigquery_client = bq.Client()
table = bq.query.QueryResults(query=query,client=bigquery_client)
table.use_legacy_sql = False
table.run()

# transfer bigquery data to pandas dataframe
columns=[field.name for field in table.schema]
rows = table.fetch_data()
data = []
for row in rows:
    data.append(row)

df = pd.DataFrame(data=data[0],columns=columns)

我想将超过 1000 万行加载到 python 中,几周前它运行良好,但现在它只返回 100,000 行。有人知道可靠的方法吗?

最佳答案

我刚刚在这里测试了这段代码,可以带来 300 万行,并且没有应用上限:

import os
os.environ['GOOGLE_APPLICATION_CREDENTIALS'] = 'path/to/key.json'

from google.cloud.bigquery import Client

bc = Client()
query = 'your query'

job  = bc.run_sync_query(query)
job.use_legacy_sql = False
job.run()

data = list(job.fetch_data())

这对你有用吗?

关于python - 从bigquery加载大数据到python,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45697327/

相关文章:

python - Google Colaboratory 中的 openAI Gym NameError

python - 如何确保函数在 Go 中花费一定的时间?

google-bigquery - BigQuery bq 命令 - 仅在表为空或不存在时加载

kubernetes - 如何将 GCP 用户与 GKE Kubernetes 用户关联起来,以进行身份​​验证和后续授权?

google-cloud-platform - 如何在谷歌云机器学习引擎上训练 Keras 模型

java - 当前测试使用 MapState 的 DoFn 的最佳实践是什么

python - django sql 查询如何使用不区分大小写的同时包含?

c# - TCP C# 服务器 Python 客户端无法通信

google-bigquery - 从与 Firebase 分析连接的 bigquery 获取人口统计信息

mysql - 请求检索 FullvisitorId 列表 - BigQuery