swift - CoreML 图像检测

标签 swift machine-learning computer-vision arkit coreml

我想实现一个应用程序,能够识别相机输入的图片。我的意思不是对象的分类,而是从给定的图像集中检测精确的单个图像。因此,如果我有一个包含 500 张照片的相册,那么如果我将相机指向其中一张照片,那么应用程序将能够告诉它的文件名。我发现的大多数关于 CoreML 的教程都严格用于图像分类(识别对象的类别),而不是识别相机中的确切图像名称。这也需要从不同的角度进行工作,而我可以用来训练网络的就是这张包含许多不同图片的相册(单个对象的单个图片)。这可以通过某种方式实现吗?我无法使用 ARKit 图像跟踪,因为这些图像大约有 500 个,我需要首先使用 CoreML/愿景

最佳答案

我不确定,但我猜perceptual hashing也许可以帮助你。 它的工作原理是从引用图像中生成一些指纹,对于给定的图像,它也会提取指纹,然后你就可以找到最相似的指纹。

这样,即使新图像不是100%与数据集中的图像一样,你仍然可以检测到它。

其实实现起来并不难。但如果你愿意,我想phash图书馆是一个很好用的图书馆。

关于swift - CoreML 图像检测,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59735032/

相关文章:

python - 提高分类交叉熵在四维预测和目标上的性能

opencv - 使用 OpenCV 识别相似(不完全相同)的简单图像?

swift - 如何将已编译的 .swift 模块中声明的 swift 函数导入另一个 swift 文件?

ios - 二元运算符 '<<' 不能应用于两个 'T' 操作数

python - 如何在以下 Python 代码中权衡套索回归的观察结果?

matlab - Gaussian-RBM 在一个简单的例子上失败

android - android中的实时交通标志识别

algorithm - 如何从 Matlab 图像中去除直线?

swift - 准备Segue : one VC to another VC with optionals?

arrays - 使用 TableView Swift 创建行标题