我有一个 Python 生成器,可以 yield
大量且未知的字节数据。我想将输出流式传输到 GCS,而不先缓冲到磁盘上的文件。
虽然我确信这是可能的(例如,我可以创建 gsutil cp - <...>
的子进程并将我的字节写入其标准输入),但我不确定推荐/支持的方式和 documentation 是什么?给出上传本地文件的示例。
我应该如何正确地做到这一点?
最佳答案
BlobWriter类使这变得更容易一些:
bucket = storage_client.bucket('my_bucket')
blob = bucket.blob('my_object')
writer = BlobWriter(blob)
for d in your_generator:
writer.write(d)
writer.close()
关于python - 来自 Python 生成器的 Google Cloud Storage 流式上传,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/73615174/