csv - 将大型 CSV 加载到 Google BigQuery 时出错

标签 csv cloud google-bigquery

将大型 CSV 加载到 bigquery 时出错。我在网上阅读的任何地方都看到压缩文件的大小限制为 5gb,但 CSV 没有限制。

加载操作中的 BigQuery 错误:错误处理作业“bqjob_r3016bbfad3037f_0000015cea1a1eff_1”:输入 CSV 文件不可拆分且
至少有一个文件大于允许的最大大小。大小为:24686861596。最大允许大小为:4294967296。

最佳答案

BigQuery 文档在此处列出了导入作业的各种限制:https://cloud.google.com/bigquery/quota-policy#load_jobs
它特别指出,压缩 CSV 文件的限制为 4 GB。

关于“不可拆分”CSV 文件的错误消息可能有两种情况:

  • CSV 文件被压缩
  • 在其中一个字段中存在引用字符不匹配,这使得该字段中的字符串看起来很长,也使文件不可拆分(这就是您的情况可能发生的情况)。
  • 关于csv - 将大型 CSV 加载到 Google BigQuery 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44784757/

    相关文章:

    javascript - 如何导出带有文件名的csv文件

    ipad - CSV 文件下载到 iPad

    java - 文本/csv文件下载在百行时转换为文本/纯文本

    .net - 用于批处理的 Azure Windows 服务

    amazon-web-services - 1、参数groupName不能与参数subnet一起使用

    sql - 在 SQL 中捕获 200 天支出窗口开始日期

    PHP - CSV 到表未按预期转换

    node.js - 用于创建外部表的 BigQuery Node.js api

    google-bigquery - 错误 : No matching signature for operator = for argument types: STRUCT<id STRING, 名称 STRING>,STRING。支持的签名:ANY = ANY [4:7]

    cloud - GCP 启动脚本执行位置