我有一个 .pbtxt 文件,它是通过 inception_v4 中的 export_saved_model 获得的,但是我无法使用这个 saved_model 进行预测。当我尝试使用 tf.contrib.predictor.from_saved_model()
加载模型时我收到以下错误:
OSError: Cannot parse file b'/Users/mehdi/Desktop/serving/saved_model.pbtxt': 1:1 :
Message type "tensorflow.SavedModel" has no field named "node"..
最佳答案
您可以通过以下两种方式进行操作:
New_Model = tf.keras.models.load_model("saved_model")
New_Model.summary()
Prediction = New_Model.predict(...)
使用 Docker 镜像安装 Tensorflow Serving
sudo docker pull tensorflow/serving
# Invoke the Tensorflow Model Server
sudo docker run -p 8501:8501 --mount type=bind,source=Path_Of_The_Saved_Model_In_PC,target=/models/saved_model -e MODEL_NAME=saved_model -t tensorflow/serving &
#To get the status of the model
curl http://localhost:8501/v1/models/saved_model
curl -d '{"instances": [1.0, 2.0, 5.0]}' \
-X POST http://localhost:8501/v1/models/saved_model:predict
如果您有一个图像作为输入,并且您想在客户端文件中对该图像执行一些预处理,您可以使用下面提到的命令来完成:
sudo docker pull tensorflow/serving
sudo docker run -p 8501:8501 --mount type=bind,source=Path_Of_The_Model,target=/models/saved_model -e MODEL_NAME=saved_model -t tensorflow/serving &
python Path/client.py --num_tests=100 --server=localhost:8500
请引用this link用于 TF 服务的客户端文件代码,this Guide有关 TF 服务的更多信息和 this Tutorial对于端到端示例。
关于python - 如何部署使用 export_saved_model 保存的 TensorFlow 模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55714006/