python - 用于 Google Cloud Storage 的类似 Boto 的库

标签 python google-app-engine amazon-s3 google-cloud-storage

Boto 提供了一种将文件上传到 Amazon S3 的简单方法:

conn = boto.connect_s3(settings.AWS_ACCESS_KEY, settings.AWS_SECRET_KEY)
bucket = conn.get_bucket(bucket) # my 'folder'
key = bucket.new_key(s3_filename) # my 'filename'
key.set_contents_from_filename('myfile.txt')

有没有一种等效的方法可以用 python 对谷歌云存储做同样的事情?我见过的所有示例都涉及 50 多行代码来执行“简单”操作,例如上传本地文件。

如何(从 CLI)完成?

最佳答案

对于通过 Python 的程序使用,boto 库和 gcs-oauth2-boto-plugin 允许您使用与 GCS 交互的基本相同的代码,就像您可以用于 S3(或者可能是其他具有正确插件的云存储服务)一样.

参见 https://cloud.google.com/storage/docs/gspythonlibrary有关如何下载和安装库和插件的说明,以及执行各种操作的 Python 代码的几个简短示例片段。其他详细说明位于 https://cloud.google.com/storage/docs/gsutil_install#boto .

CLI 的使用更加简单;例如,一旦您安装并验证了 gsutil,典型的“上传一堆文件”CLI 命令就是

$ gsutil cp *.txt gs://my_bucket

(使用 $ 表示“shell 提示符”:-)。

关于python - 用于 Google Cloud Storage 的类似 Boto 的库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28523613/

相关文章:

python - 如何合并上三角形和下三角形,同时添加 1 的对角线

python - 如何通过 requests.get 或 selenium 处理 catch 和处理重定向循环?

Python - Kamenicky 编码 (CP-895)

c++ - 如何在 Qt 4 中上传文件到 Amazon S3

python - 尝试清理安装 python (anaconda),出现与先前安装相关的错误

python - Google App Engine Flex 是否支持 Pipfile?

python - 在 Python/Django 中从 Google Cloud Storage/Buckets 上传和检索文件

amazon-s3 - 有人可以详细说明通过 Amazon Web Services 托管的这些基本概念吗?

java - 当 `PutObjectRequest`的userMetaData中有中文字符时AWS S3错误

java - 克服谷歌数据存储的 30 个子查询限制