linux - 从 ec2 上传大文件到 s3 失败

标签 linux amazon-web-services amazon-ec2 amazon-s3

我正在尝试使用 将 160 Gb 文件从 ec2 上传到 s3

s3cmd put --continue-put FILE s3://bucket/FILE

但每次上传都会中断消息:

FILE -> s3://bucket/FILE [part 10001 of 10538, 15MB] 8192 of 15728640 0% in 1s 6.01 kB/s  failed

ERROR: Upload of 'FILE' part 10001 failed. Aborting multipart upload.
ERROR: Upload of 'FILE' failed too many times. Skipping that file.

目标桶确实存在。

问题的原因是什么?

还有其他上传文件的方法吗?

谢谢。

最佳答案

每个对象最多可以有 10000 个上传部分,因此在部分 10001 上会失败。使用更大的部分可能会解决问题。

关于linux - 从 ec2 上传大文件到 s3 失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23326125/

相关文章:

amazon-web-services - 如何将 AWS CloudWatch Dashboard 转换为 CloudFormation 模板

ssl - 使用 TLS 的 EC2 上的 Mosquitto

linux - BASH:[](测试)行为不一致

linux - 通过 wifi 流式传输音频 : feasible and how?

linux - 如何从命令行访问 Unix 域套接字?

amazon-web-services - ELB 背后的 NGINX 实例如何跟踪请求以提供统一的负载均衡?

Mysql服务器占用CPU 500%

linux - cd 到目录和 su 到脚本中远程服务器上的特定用户

amazon-web-services - 如何解决 AWS Route 53 中的错误 - 导入区域文件错误 : Multiple Distinct TTL values?

amazon-web-services - TeamCity 代理 - AWS CLI