python - CoreML - 多数组输入需要在应用程序或模型中进行预处理?

标签 python swift audio machine-learning coreml

我用过这个library建立音频分类模型。然后我将这个模型转换为 CoreML。后来想在这段代码中实现模型https://github.com/robmsmt/kDS2iOS/

我对此有疑问,因为模型的输入是 Double MultiArray (1 x 96 x 435) 并且代码采用不同的形式。所以我想我有两个选择,一个,但如果我错了,请纠正我,我可以在应用程序中进行录音,并通过在应用程序中预处理音频文件使其适合模型来做应用程序正在做的事情。另一个我不确定是否可能的选项是让原始模型接受音频,这样我就不必在 python 中编写预处理代码两次,在 xCode 中编写另一个。有人可以告诉我该怎么做吗?

最佳答案

这完全取决于预处理是什么。 Core ML 可以进行某些类型的预处理(例如规范化输入),但您仍然需要自己将音频数据加载到 MLMultiArray 中(因为 Core ML 没有“音频”输入)。

关于python - CoreML - 多数组输入需要在应用程序或模型中进行预处理?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50743766/

相关文章:

python - 添加新事件/日志后刷新 TensorBoard 的最佳方法是什么?

python - 在 Pandas 的单元格中添加值

python - 当存在重复值时将 numpy.array 转换为元素顺序

iOS 11 禁用密码自动填充附件 View 选项?

swift - 为什么在 xcode 中,主目录显示为/Users/myname/Library/Containers/... 而不是主文件夹?

python - 在python列表中的每个项目的字符串前面添加一个字符串

ios - 滚动直到 uicollectionview 的最后一个单元格

audio - 获取YouTube的所有媒体链接,而无需使用flashgot,youtube-dl或任何工具

android - Android基于字符串加载和播放声音

.net - 需要库来比较语音轨道(发音)