我创建了各种大小的数据集,例如 1GB、2GB、3GB、4GB(< 10 GB),并在 Azure ML 上执行各种机器学习模型。
1) 我能否知道 Azure ML 服务中提供的服务器规范(RAM、CPU)是多少。
2) 有时,读者会说“内存耗尽”>4GB 数据。尽管根据文档,azure ml 应该能够处理 10GB 数据。
3)如果我并行运行多个实验(在浏览器的不同选项卡中),则需要更多时间。
4)有没有办法在Azure ML中设置RAM、CPU核心
最佳答案
我有一个部分答案: 1.不,它是抽象的
-
The following types of data can expand into larger datasets during feature normalization, and are limited to less than 10 GB:
Sparse Categorical Strings Binary data
(参见 this )
我不确定,但在研究过程中,我在运行单个实验和多个实验时没有遇到任何变化
您可以扩展标准层中的计算机(请参阅 this)
关于performance - azure ml 的计时测试,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35621424/