amazon-web-services - 是否可以仅通过提供 URL 来上传到 S3?

标签 amazon-web-services amazon-s3

简单地说,这是否可能无需将远程资源读取到 本地服务器,然后将其放在 S3 的服务器上?

所以从某种意义上说,传输不是这样的:

S3<--(PUT DATA)--LOCAL<--(REQUEST DATA)--REMOTE_URL

最终看起来像这样。

S3<--(PUT DATA BY URL)--LOCAL

S3<--(REQUEST DATA)--REMOTE_URL

最佳答案

不可能。

Amazon 不提供 S3 拉取服务,而且我也没有看到其他人宣传过这种服务。 (不过,这并不是一个糟糕的商业想法。)

话虽如此,有很多工具可以帮助解决这个问题!

很多人使用类似 s3fs 的东西使用他们最喜欢的备份实用程序(即 cron + rsync)。

最近,我在 boto 方面取得了巨大成功以及一些自定义的 Python 脚本。我喜欢这个的原因是它与您在机器上运行的任何其他服务很好地集成,并提供状态更新。

我编写了一个 shell 脚本,用于启动 EC2 实例,通过 SSH 连接,让 EC2 盒子将数据从 FTP 站点下载到其本地磁盘,然后将新数据上传到 S3。

关于amazon-web-services - 是否可以仅通过提供 URL 来上传到 S3?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3231847/

相关文章:

python - 如何在 python 中从 S3 多部分下载大文件?

android - 基本网络.performRequest : Unexpected response code 400 for <AWS S3 url>

javascript - 直接访问 Amazon S3 被拒绝

security - AWS 困惑代理 - "external id"真的只是一个 "password"吗?

amazon-web-services - 使用 Helm 而不是 Terraform 的困惑

amazon-web-services - 如何检查 SWF 中是否已存在域

unit-testing - 有没有办法对 AWS Cloudformation 模板进行单元测试

amazon-web-services - 网络负载均衡器现实生活中的例子?

hadoop - 是否可以更新已经写入S3的数据?

amazon-web-services - 成功部署后从 S3 删除 AWS codeDeploy 修订版本