我正在尝试找出在 iOS 应用程序中从 Tensorflow 模型(Inception 或 mobilenet)运行对象检测的最简单方法。
我的 iOS Tensorflow 图像分类在我自己的应用程序和网络中运行 this example
并让 Tensorflow 图像分类和对象检测在 Android 中为我自己的应用程序和网络工作,遵循 this example
但是iOS示例中没有对象检测,只有图像分类,那么如何扩展iOS示例代码来支持对象检测,或者iOS中有完整的示例吗? (最好是 objective-C)
我确实找到了 this和 this , 但它从源代码重新编译 Tensorflow,这看起来很复杂,
还发现Tensorflow lite ,
但同样没有对象检测。
我还找到了使用 Core ML 将 Tensorflow 模型转换为 Apple Core ML 的选项,但这看起来非常复杂,并且找不到 Core ML 中对象检测的完整示例
最佳答案
您需要训练自己的机器学习模型。
对于 iOS,只使用 Core ML 会更容易。 tensorflow 模型也可以导出为 Core ML 格式。您可以玩这个示例并尝试不同的模型。 https://developer.apple.com/documentation/vision/recognizing_objects_in_live_capture
或者在这里:
https://github.com/ytakzk/CoreML-samples
关于ios - 如何在 iOS 上运行 Tensorflow 对象检测,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55289892/