linux - 将大量图像(3000+)上传到谷歌云服务器的快速方法

标签 linux machine-learning google-cloud-platform deep-learning computer-vision

我正在为一个学校项目进行对象检测。为了训练我的 CNN 模型,我使用了谷歌云服务器,因为我没有足够强大的 GPU 来在本地训练它。 训练数据由图像(.jpg 文件)和注释(.txt 文件)组成,分布在大约 20 个文件夹中,因为它们来自不同的来源,而且我不想混合来自不同来源的图片,所以我想保留这个目录结构。

我当前的问题是我找不到将它们上传到我的谷歌云服务器的快速方法。 我的解决方法是将这些图像文件夹作为 .zip 文件上传到谷歌驱动器上,然后将它们下载到云上并在那里解压缩。这个过程需要太多时间,因为我必须上传许多文件夹,而 Google Drive 没有良好的 API 来将文件夹下载到 Linux。

在我的本地计算机上,我使用 Windows 10,我的云服务器运行 Debian。

因此,如果您知道一种快速且简单的方法来将我的图像直接上传到服务器或至少上传我的压缩文件夹,我将不胜感激。

最佳答案

难道您不能创建一个无限循环来查找 jpg 文件,并在文件存在后将 jpg 直接 scp/sftp 到您的服务器吗?在 Windows 上,您可以使用 WSL 来实现此目的。

(抱歉,这可能不是您的最终答案,但我没有资格问您这个问题)

关于linux - 将大量图像(3000+)上传到谷歌云服务器的快速方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60031387/

相关文章:

php - svn 从 php 文件更新

linux - 在 bash 中的 chroot 中执行函数

machine-learning - TensorFlow CIFAR-10 示例教程中的 Distorted_inputs() 函数如何获取每批 128 张图像?

python - Tensorflow GradientBoostedDecisionTreeClassifier错误: "Dense float feature must be a matrix"

mongodb - Google Compute Engine 上的 Bitnami MongoDB 副本集

linux - 在linux中创建另一个目录中文件的软链接(soft link)

linux - 在特定空格后的文件中的每一行中添加一个变量

r - 将数据拆分为不具有代表性类别的训练和评估数据集

mysql - 在启动默认 SQL 代理连接时更改默认 MySQL 或 PostgreSQL 端口号

python - GCP 实例为 Ajax 127.0.0.1 路由返回 ERR_CONNECTION_REFUSED