我在查看 tensorflow serving's 时注意到了使用 GPU 支持设置 tf 服务的指南,它涉及使用 nvidia's docker目前仅适用于基于 Linux 的系统。由于我当前使用的 docker tf 服务容器本身是一个 linux 机器,是否可以在 tfserving 容器中配置 nvidia-docker,这样我就可以在运行 Windows 的主机上运行 Docker 时使用我的 GPU 进行模型推理?还是我需要我的主机运行 Linux?
我的印象是,由于虚拟化要求,我无法从 Linux 虚拟机本身运行 docker 实例,所以我想知道是否有通过以某种能力扩展 docker 本身的解决方法。
在此先感谢,在我对问题的彻底搜索中,我找不到任何详细介绍此问题的资源,而且我对使用 Docker 和 tensorflow 服务还比较陌生。
最佳答案
我不相信 NVIDIA 有任何 intention关于为 Windows 创建 nvidia-docker
,或者至少在可预见的 future 不会,因为它需要创建将直接使用主机驱动程序的 Windows 容器。我的意思是,您将无法通过 Windows 主机从 Linux 环境访问 GPU。
此外,我认为 docker 作为一个平台在 Linux 上运行得最好,尤其是在生产方面,假设这就是您所追求的。总而言之,我的建议是坚持使用经过实战检验的设置,例如 nvidia-docker
+ Linux 上的 TF 服务。您有一群在您之前做过这件事的人,因此故障排除和解决问题会更容易。
关于linux - 在 Windows 上托管 docker 虚拟机时,是否可以配置 docker-nvidia 以与 tensorflow-serving 一起使用?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54407144/