google-bigquery - BigQuery 将数据导出到一个大文件中

标签 google-bigquery google-cloud-storage

BigQuery docs告诉我们每个请求的限制,一个文件不能超过 1 GB,这是事实,但并非总是如此。我进行了一次新的导出,结果令我惊讶的是,文件大小为 6 GB。这个大文件对我来说是个问题。

我可以采取哪些措施来减小文件大小?为什么 BigQuery 会处理这么大的文件?

最佳答案

BigQuery 导出文件大小各不相同,有时会分割成超过 1GB 的文件或分割成许多小文件。

有一个public issue已提交有关此问题的信息,但仅涉及文档更改以设置不同导出文件大小的期望

其他人似乎也遇到了这个问题:

您可以尝试进行新的导出,但如果导出文件大小始终高于 1GB,您可能 report for a public issue截至目前审查这种不可预测的行为。

关于google-bigquery - BigQuery 将数据导出到一个大文件中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55903607/

相关文章:

python - 使用 Python 在 Google Cloud Platform 存储桶内遍历目录树

ruby-on-rails - 大文件从 S3 到 Google Cloud Storage 的内存高效传输

sql - BigQuery SQL,将 SQL 查询结果追加到现有表中

sql - 如何在 Big Query 中将访问开始时间转换为可读的人工日期或时间戳?

google-bigquery - BigQuery 获取本周和上周的数据

google-cloud-storage - 为云存储桶上的用户提供完全访问控制

google-app-engine - Google Cloud Storage ( GCS ) 中的文件数量是否有限制?

node.js - 谷歌云存储不是一个功能

redis - 使用大列表的地理定位数据,用纬度/经度标记巨大的元素列表

SQL - 分组和聚合以计算相对于总数的比率