有没有公开文件明确说明CoreML's
在 macOS 上运行推理模型时 GPU 设备放置的策略?它如何决定它应该在集成、离散还是 CPU 上运行?可以可靠地“强制”一条路径吗?对于具有多个独立 GPU 和多个 eGPU 的新 Mac Pro 等系统,这种情况有何变化?
我对我的 rMBP 的测试表明答案是否定的——温度、电池、插入电源、自动图形设置和应用程序支持,甚至可能一些 MLModel 架构启发式都在设备放置中发挥作用。
更长的上下文:
我很好奇是否有任何关于 CoreML 的设备选择启发式的公共(public)文档。添加了 10.15 的 CoreML preferredMetalDevice
MLModelConfig
的 API ,我想可以强制 MTLDevice
一个 MLModel
/视觉请求运行。
在我使用 Vega 20 在我的 2018 rMBP 上使用集成、离散和 eGPU 进行的测试中,似乎只有 eGPU 在请求时始终运行 CoreML 模型。
我的 CoreML 模型是一个管道模型,由具有多个输出的 MobileNet 分类器(附加到自定义特征提取器的多头分类器)组成。
出于以下几个原因,我很想了解设备选择偏好:
a) 我想确保我的 MLModel
图片 CIImages
支持 MTLTextures
本地设备推理将运行,以限制 PCI 传输并继续在单个 GPU 设备上进行处理
b) 我的模型实际上是输入视频帧,WWDC '19/10.15 引入了 VideoToolbox 和 AVFoundation API,以帮助强制特定 GPU 上的特定视频编码器和解码器。
理论上,如果一切正常,我应该可以指定相同的 MTLDevice
用于视频解码、预处理、CoreML/Vision 推理和后续编码 - 保留所有 IOSurface
支持 CVPixelBuffers
, CVMetalTextureRefs
, MPSImages
和 friend 驻留在同一个 GPU 上。
Apple 有一个 Pro Apps WWDC 视频,表明这是通往多 GPU 支持/Afterburner 解码器支持的快速路径的前进之路。
是否 CoreML
实际上 允许建议的设备放置工作?
我正在运行配备 Vega 20 GPU 的 Retina MacBook Pro 2018,并尝试各种方法让 Vega 20 点亮。
结果:
MLModel
上运行推理如果我使用 MLModelConfig
与 preferredMetalDevice
- 每次。我已将我的 info.plist 配置为具有适当的 eGPU 支持,并且可以热插拔/检测设备更改并将工作分配给 eGPU,并且还支持检测设备移除请求。这一切都有效。 CoreML 不尊重我的设备放置!
最佳答案
没有公开文件明确说明 CoreML 的 GPU 使用计划。请注意,您的问题似乎提出了许多不同的问题,并且应该更加关注每个帖子的一个问题,但我会尽我所能回答它们。
您可以“强制”它仅在 CPU 上运行:
let config = MLModelConfiguration()
config.computeUnits = .cpuOnly
或 CPU 和 GPU:config.computeUnits = .cpuAndGPU
或者包括神经引擎的所有可用计算单元(如果可用),并且如果 MLModel 层支持它:config.computeUnits = .all
当有多个 Metal 设备时,您可以选择使用哪个。看到这个example code在功率最高的 Metal 设备、外部 GPU 或不驱动显示器的 GPU 之间进行选择。您还可以选择允许低精度损失:
config.allowLowPrecisionAccumulationOnGPU = true
关于ios - CoreML/MLModelConfig 首选MetalDevice - 了解设备放置启发式,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58437789/