azure - Azure ML 服务中的指标文档太大

标签 azure azure-machine-learning-service

我正在尝试保存指标:100 和 50 个时期内每个时期的损失、验证损失和 mAP,但在实验结束时出现以下错误: 运行失败:RunHistory 最终确定失败:ServiceException:代码:400 消息:(ValidationError)指标文档太大

我使用此代码来保存指标<​​/p>

run.log_list("loss", history.history["loss"])
run.log_list("val_loss", history.history["val_loss"])
run.log_list("val_mean_average_precision", history.history["val_mean_average_precision"])

我不明白为什么尝试仅保存 3 个指标超出了 Azure ML 服务的限制。

最佳答案

您可以将运行历史记录列表写入分成较小的 block ,如下所示:

run.log_list("loss", history.history["loss"][:N])
run.log_list("loss", history.history["loss"][N:])

在内部,运行历史记录服务将具有相同指标名称的 block 连接到一个连续的列表中。

关于azure - Azure ML 服务中的指标文档太大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58691120/

相关文章:

azure-machine-learning-service - 如何使用 Fitted_model.forecast() 进行 AutoML 预测模型?

azure - 地形 : How do I set the value of accessTokenAcceptedVersion to 2 for a Azure Service Principal?

c# - 如何保护 Web API 和应用程序 (Azure AD) 使用的 Azure SQL 数据库的安全

azure - 将 mvc 5 应用程序连接到 Azure 中的 ACS?

python - 从存储帐户安装私有(private) python 轮

azure-machine-learning-service - 如何在 Azure 机器学习服务管道中使用 key

Azure DevOps 多个组织或多个项目

azure - Terraform azurerm_data_factory vsts_configuration 失败,错误为 : Error configuring Repository for Data Factory

Azure ML 平台错误地解释上传的数据集

Python Azure SDK - 使用 from_delimited_files() 从 blobstore 读取表格数据时推断出不正确的日期时间格式