存储 NLP 模型的最佳方式是什么?我有多个 NLP 模型,总共大小约为 800MB。我的代码将在启动时将模型加载到内存中。不过我想知道存储模型的最佳方式是什么。我应该将其存储在 git repo 中,然后可以直接从本地系统加载,还是应该存储在 S3 等外部位置并从那里加载?各自的优点/缺点是什么?或者人们是否使用了我没有考虑过的其他方法?
最佳答案
您的 NLP 模型需要版本控制吗?您是否需要恢复到以前的 NLP 模型?如果情况并非如此,将您的工件存储在 S3 存储桶中当然就足够了。如果你打算长期存储很多NLP模型,我也推荐AWS Glacier 。对于长期储存来说,冰川是一种极具成本效益的方法。
关于amazon-s3 - 在 Git Repo 与 S3 中存储 NLP 模型?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44191060/