我用过这个library建立音频分类模型。然后我将这个模型转换为 CoreML。后来想在这段代码中实现模型https://github.com/robmsmt/kDS2iOS/
我对此有疑问,因为模型的输入是 Double MultiArray (1 x 96 x 435) 并且代码采用不同的形式。所以我想我有两个选择,一个,但如果我错了,请纠正我,我可以在应用程序中进行录音,并通过在应用程序中预处理音频文件使其适合模型来做应用程序正在做的事情。另一个我不确定是否可能的选项是让原始模型接受音频,这样我就不必在 python 中编写预处理代码两次,在 xCode 中编写另一个。有人可以告诉我该怎么做吗?
最佳答案
这完全取决于预处理是什么。 Core ML 可以进行某些类型的预处理(例如规范化输入),但您仍然需要自己将音频数据加载到 MLMultiArray 中(因为 Core ML 没有“音频”输入)。
关于python - CoreML - 多数组输入需要在应用程序或模型中进行预处理?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50743766/