machine-learning - 将单个大型 Google Drive 存档导入到共享的 Google Colab 项目中

标签 machine-learning google-drive-api google-colaboratory

我正在开展一个类(class)项目,我们正在处理 Google Colabs 中的大型数据集。值得注意的是,如果运行时断开连接,则不会保存文件。因此,我将数据集下载到我的个人驱动器中,但很难让 Colabs 项目访问它。我也不能只安装我的驱动器,因为还有其他人正在处理这个问题。

有什么方法可以在 Colabs 中下载 link-sharing=on 驱动器文件吗?

保存经过训练的模型的方法也很有用,但共享模型和保存的文件的相同问题仍然存在。

最佳答案

我知道有两种方法。

如果您只想与 friend 分享,而不是公开,您可以通过 Google Drive 分享。每个 friend 都需要 auth.authenticate_user(),然后使用 pydrive 加载给定其 FILE_ID 的文件。

如果您可以将其公开,那就更容易了。任何人都可以使用

下载该文件
!gdown --id xxxxxxxxx

其中 xxxxxxx 是 FILE_ID。

关于machine-learning - 将单个大型 Google Drive 存档导入到共享的 Google Colab 项目中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58329739/

相关文章:

python - 是否可以向 SVM 模型添加协变量(控制不感兴趣的变量)?

machine-learning - 来自 pcalg 的 PC 稳定版

javascript - 从匿名用户使用javascript将文件上传到Google驱动器

python - 模块 'seaborn' 没有属性 'relplot'

google-colaboratory - 在 Google Colab 中设置环境变量

python - 基于目标变量的编码技术预测看不见的数据

python - 让 shogun ML 库与 python 一起工作

google-apps-script - 如果尚不存在,请在云端硬盘中创建新文件夹

node.js - 如何使用 NodeJS 和 Google Drive API v3 将文件移动到回收站

python - IPython 笔记本 : using quotes (') and dollar($) to pass string variable as argument to python script in command-line(!) | eg: abc.py -arg1 ' $var1'