ios - 如何知道对象识别机器学习模型 (CoreML) 的可能输出是什么

标签 ios machine-learning object-recognition coreml

我从 Apple 网站下载的机器学习模型,可用于通过图像识别许多不同的对象。

我想知道,比如我需要检测所有不同种类的树木。有些可以被模型识别,有些则不能。那我怎么知道有多少棵树正在这个模型中训练呢?换句话说,我怎么知道这个模型中所有可能的树识别?我怎么知道?我可以解码模型吗?或者解析它什么的?

最佳答案

这些模型是在 ImageNet 数据集上训练的。以下是这些模型可以检测的类别列表:https://github.com/HoldenCaulfieldRye/caffe/blob/master/data/ilsvrc12/synset_words.txt

关于ios - 如何知道对象识别机器学习模型 (CoreML) 的可能输出是什么,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47707837/

相关文章:

python - 卡住神经网络的权重,使其输出在特定点取特定值( tensorflow )

machine-learning - 神经网络将数据分为 3 类,没有规则

opencv - 对象分类,何时使用完整图像或提取的对象?

ios - 使用正弦波(AVFoundation?)进行音频合成

ios - 在 Swift 中拉伸(stretch) UIView

machine-learning - 线性回归::归一化 (Vs) 标准化

image-recognition - 开源对象识别算法

Python-图像识别分类器

ios - 为什么不显示NSTextAttachment图像?

iOS GCM - GGLInstanceID | future 最后一次 checkin 时间戳无效