ARKit 3 支持手指追踪吗?如果可以,ARKit 3 是否可以与 TrueDepth 相机模块的人脸检测 API 结合使用,以运动特定手指相对于眼睛、 Nose 和嘴巴的位置? 如果没有,是否有一种简单的方法可以使用手指跟踪,而无需像使用 Metal API 那样深入?
注意:通过手指跟踪,我的意思是跟踪手指的数量和/或哪个手指是可见的。
最佳答案
使用 ARKit 3 的人体跟踪功能,您可以获得被跟踪 body 的手指非常接近的位置(请参阅 Apple 的 Capturing Body Motion in 3D 示例代码),但您使用 ARBodyTrackingConfiguration对于人体跟踪功能,该配置下不支持人脸跟踪。此外,手指的关节不会被跟踪,因此虽然您可以使用被跟踪的关节(即手腕)获得它们的大致位置,但 ARKit 不会告诉您哪些手指伸出或缩回。
关于ios - 使用 ARKit 3 进行手指和面部跟踪,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56534812/