deep-learning - tensorflow 服务 : Using a fraction of GPU memory for each model

标签 deep-learning tensorflow tensorflow-serving

我有一个 GPU 可供部署,但需要部署多个模型。我不想将完整的 GPU 内存分配给第一个部署的模型,因为那样我就无法部署我的后续模型。在训练时,这可以使用 gpu_memory_fraction 来控制。范围。 我正在使用以下命令部署我的模型 -

tensorflow_model_server --port=9000 --model_name=<name of model> --model_base_path=<path where exported models are stored &> <log file path>

我可以设置一个标志来控制 gpu 内存分配吗?

谢谢

最佳答案

新的 TF 服务允许在此 pull request 中设置标志 per_process_gpu_memory_fraction

关于deep-learning - tensorflow 服务 : Using a fraction of GPU memory for each model,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47587321/

相关文章:

tensorflow - 微调 Keras 模型

tensorflow - Keras TimeDistributed Not Masking CNN模型

deep-learning - 我们是否应该使用 Huggingface(预)训练一个 BERT 无框模型的小写输入数据?

java - 如何在 Java 中为 TensorFlow DNNRegressor 提供输入?

python - 改变预训练模型的输入形状及其权重

python - 越来越大的正 WGAN-GP 损失

python-3.x - ap_uniform_sampler() 缺少 1 个必需的位置参数 : 'high' in Ray Tune package for python

python - 从现有检查点创建集线器模块

docker - 跨cpu和gpu服务容器的不同Ubuntu版本

python - 在进行在线预测时,tensorflow-serving 或托管的 Google ML 是否允许使用第 3 方库进行数据预处理? ( python 3)