amazon-web-services - 复制到大目录时,AWS S3 Sync非常慢

标签 amazon-web-services amazon-s3 aws-cli bigdata

使用AWS-CLI将数据同步到S3中的空目录时,几乎是即时的。但是,当同步到一个大目录(数百万个文件夹)时,甚至开始上传/同步文件都需要很长时间。

有替代方法吗?看起来它正在尝试在同步之前考虑S3目录中的所有文件-我不需要,并且无需事先检查就可以上传数据。

最佳答案

sync命令将需要枚举存储桶中的所有文件,以确定存储桶中是否已存在本地文件,以及该本地文件是否与本地文件相同。存储桶中包含的文档越多,花费的时间就越长。

如果您不需要这种sync行为,只需使用类似以下的递归复制命令:

aws s3 cp --recursive . s3://mybucket/


并且应该将当前目录中的所有本地文件复制到S3中的存储桶中。

关于amazon-web-services - 复制到大目录时,AWS S3 Sync非常慢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41836439/

相关文章:

apache-spark - 如何使用服务器端加密将 spark rdd 写入 S3

php - 上传ZIP文件到S3,使用EC2解压

python - HTTP代码400在python中使用Boto3从AWS S3存储桶获取对象

amazon-web-services - 当请求中未指定消息 SentTimestamp 时,Amazon Sqs 如何配置消息

git - AWS CodeCommit - fatal error : repository 'https://git-codecommit.us-east-1..' not found

amazon-web-services - 为什么 AWS NAT 网关需要弹性 IP?

amazon-web-services - Apache 响应缓慢,但 CPU 和内存未达到最大值

ruby-on-rails - 在 .bashrc 环境变量中存储 Amazon S3 凭证会导致 Rails 应用程序失败

amazon-web-services - 如何使用 AWS CLI 在同一行中列出所有具有名称、状态、实例大小和 AZ 的实例

python - pip 无法安装包 - Dockerfile