google-cloud-platform - PyTorch 的云存储桶

标签 google-cloud-platform deep-learning google-cloud-storage pytorch

对于我正在处理的特定任务,我有一个大约 25 GB 的数据集。我仍在尝试几种预处理方法,并且肯定还没有我的数据的最终形式。我不确定解决此类问题的常见工作流程是什么,所以这就是我的想法:

  1. 使用 gcsfuse 将数据集从存储桶存储复制到 Compute Engine 机器 SSD(可能使用 50 GB 左右的 SSD)。
  2. 应用各种预处理操作作为实验。
  3. 使用 PyTorch 对本地磁盘 (SSD) 上存储的数据运行训练
  4. 如果成功,则使用 gcsfuse 将新处理的数据复制回存储桶。
  5. 上传结果并删除训练期间使用的永久磁盘。

替代方法是这样的:

  1. 使用 gcsfuse 的挂载目录对 Cloud Bucket 本身内的数据运行处理操作
  2. 使用存储空间非常有限的计算引擎实例,直接在挂载的 gcsfuse Bucket 目录上使用 PyTorch 运行训练。
  3. 上传结果并删除 Compute Engine 实例。

建议采用以下哪种方法?这会产生更少的费用,并且在运行此类操作时最常使用。是否有我在这里没有看到的不同工作流程?

最佳答案

在计费方面,费用是相同的,因为熔断操作的收费与任何其他云存储接口(interface)一样,根据 documentation 。在您的用例中,我不知道您将如何训练数据,但如果您对文件执行不止一项操作,最好将它们下载,在本地训练,然后上传最终结果,这将是 2对象操作。例如,如果您在训练期间对文件进行多次更改或读取,则每个操作都将是一个对象操作。在工作流程方面,建议的工作流程对我来说看起来不错。

关于google-cloud-platform - PyTorch 的云存储桶,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51639141/

相关文章:

python - 如何使用 Python 访问 Google Cloud Storage 上的文件

google-cloud-storage - GCS : change object-level permission control to bucket-level

google-cloud-platform - 如何限制对我的云功能的访问?

google-cloud-platform - 如何为GCP云sql私有(private)IP生成DNS

hadoop - 如何在 Google 存储的 dataproc 上执行 hadoop fs -getmerge

python - PyTorch 线性层输入维度不匹配

tensorflow - 用于 keras/tensorflow 中语义图像分割的多类加权损失

google-cloud-platform - 是否可以连接到 GCP Vertex AI 管道中 Cloud SQL 实例的私有(private) IP?

mysql - GCP Mysql 实例的 VARCHAR 限制不超过 3072

machine-learning - Keras 可以处理不同尺寸的输入图像吗?