google-cloud-storage - gsutil 复制到存储失败

标签 google-cloud-storage google-compute-engine

我在 us-central1-a 区域的一个实例中工作,我无法复制 ~200GB 的文件。

我试过了 :

  • gsutil -m cp -L my.log my.file gs://my-bucket/
  • gsutil -m cp -L my.second.log my.file gs://my-bucket2/

  • 经过几次“追赶”后,我收到以下错误:

    CommandException:某些临时组件未成功上传。请重试此上传。
    CommandException:无法传输 X 文件/对象。

    有什么线索吗?

    谢谢

    最佳答案

    如果 gsutil 的 parallel composite uploads feature,您会看到这条消息无法上传文件的至少一部分。

    几个问题...

  • 看到此消息后,您是否已经尝试再次执行此上传?
  • 如果此错误仍然存​​在,请提供来自 gsutil -d cp... 的堆栈跟踪

  • 如果您一直看到此错误并需要立即修复(如果这是并行上传的错误),您可以设置 parallel_composite_upload_threshold=0GSUtil部分您的 boto 配置以禁用并行上传。

    关于google-cloud-storage - gsutil 复制到存储失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22645475/

    相关文章:

    linux - 如何通过 FileZilla 谷歌计算引擎上传文件

    google-cloud-platform - 将 Google Cloud Storage 中的大文件加载到 Google Cloud Functions 中?

    google-cloud-platform - 是否可以像在终端中使用 `ls` 命令一样查询 Google Cloud Storage?

    google-cloud-platform - 有没有办法找到大于特定大小的 Google Cloud Storage Bucket 中的所有文件/对象?

    linux - Google Compute Engine 实例需要 sudo 密码 - 我的密码是什么?

    cloud - 谷歌计算引擎上文件服务器的最佳等价物是什么

    java - 谷歌云java api客户端http连接池

    python - 如何在 Python 中使用签名 URL 上传到 Google 存储桶?

    使用 GCloud ( GCE VM ) 和使用 CUDA 安装 tensorflow-gpu 包的 Python 错误

    mysql - 我无法使用内部 IP 从另一个实例连接到在 Google Compute 引擎上运行的 mysql 服务器