我正在尝试开发图像识别iOS应用程序,我将有一个引用图像,用户必须在一个屏幕上绘制一些东西,当用户释放手指时,我会将他的绘图转换为UIImage/CGImage,然后我将进行比较与引用图像的接近百分比。
如果百分比超过 90%,则用户将获胜。 (见下图,忽略🔴红色(用户 Canvas )和🔶黄色边框(引用边界不会包含在atul图像中))
到目前为止我做了什么:
我创建了每个引用的自定义图像数组,然后从该网站创建 MLModel
这是我创建的模型,我也对其进行了训练:
https://drive.google.com/open?id=1pkunnq9AyXmPYkFdPVWtumXaxGzXm726
我尝试使用 MLModel 执行此操作,但每次应用程序都显示 90% 以上的百分比,我无法执行此操作。
请提出建议
我正在尝试在 iOS Swift 中使用 MLKit,我做错了,如果是,那么正确的方法是什么
最佳答案
我建议您遵循 Apple 模板如何使用 CoreML 模型与图像,您将处理 CoreML 和 Vision 框架。
关于ios - 如何将用户绘图与预定义绘图模型相匹配?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56389803/