ios - 使用 ARKit 3 进行手指和面部跟踪

标签 ios arkit face-detection

ARKit 3 支持手指追踪吗?如果可以,ARKit 3 是否可以与 TrueDepth 相机模块的人脸检测 API 结合使用,以运动特定手指相对于眼睛、 Nose 和嘴巴的位置? 如果没有,是否有一种简单的方法可以使用手指跟踪,而无需像使用 Metal API 那样深入?

注意:通过手指跟踪,我的意思是跟踪手指的数量和/或哪个手指是可见的。

最佳答案

使用 ARKit 3 的人体跟踪功能,您可以获得被跟踪 body 的手指非常接近的位置(请参阅 Apple 的 Capturing Body Motion in 3D 示例代码),但您使用 ARBodyTrackingConfiguration对于人体跟踪功能,该配置下不支持人脸跟踪。此外,手指的关节不会被跟踪,因此虽然您可以使用被跟踪的关节(即手腕)获得它们的大致位置,但 ARKit 不会告诉您哪些手指伸出或缩回。

关于ios - 使用 ARKit 3 进行手指和面部跟踪,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56534812/

相关文章:

xml - 使用 Accord.NET 解析 HaarCascade XML - 节点类型不支持 ReadElementContentAsString 方法 None

ios - 警报 View :didDismissWithButtonIndex: message sent to deallocated instance

swift - 使用 ARSKView 关闭 View Controller 时,如何刷新嵌入到先前 View Controller 中的 SKScene?

machine-learning - ARKit 图像检测 - 许多图像

c++ - 流网络摄像头速度慢 "detectMultiScale"

Android:如何在已经显示 Camara 预览的 Surfaceview 上绘图

ios - 如何将 UIPopoverArrowDirection 定位到弹出 View 的右上角

ios - 如何在 iPhone 上设置参数

ios - 使用两个不同的 XIB 查看 Controller ......棘手

swift - 为什么添加到场景 View 场景的 3d 对象会随着相机移动?