我遵循了tensorflow服务的说明,使用docker可以通过指定其版本来运行3个模型。但是作为主机的输出,我只能得到该模型的最新版本。是否有任何cna帮助主机显示所有三个模型的model.config文件?
最佳答案
弄清楚了!!
这是你可以做到的
1.在存在模型的文件夹中包含model_config文件
model_config_list:{
配置:{
名称:“half_plus_three”,
base_path:“/ models / half_plus_three”
model_platform:“tensorflow”,
model_version_policy:{全部:{}}
}
}
2.运行命令
docker run -t --rm -p 8501:8501 \
-v“$(pwd)/ models /:/ models /” tensorflow /服务\
--model_config_file = / models / models.config \
--model_config_file_poll_wait_seconds = 60
关于docker - 是否有一个model.config文件用于 tensorflow 服务以返回主机上的所有模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59925338/