上个月,我一直在研究从实时视频创建 3D 重建的方法。在我看来,唯一的选择是使用第三方服务,如 Agisoft 或 Autodesk Capture。然而,在ARKit 2.0发布后,我看到了这个tweet .在这条推文中,Tim Field 声称他使用 ARKit 摄影测量来创建 3D 模型。据我所知,这是不可能的。我只使用 ARKit 扫描 3D 对象和创建点云。事实上这就是ARKit documentation says正是:
An
ARReferenceObject
contains only the spatial feature information needed for ARKit to recognize the real-world object, and is not a displayable 3D reconstruction of that object.
如果 Tim Field 所说的是真的,我如何使用 ARKit 通过摄影测量创建 3D 模型?
最佳答案
Apple RealityKit 2.0
获得了 Object Capture API .它为我们提供了期待已久的摄影测量工具。在输出中我们得到具有相应纹理的 USDZ 模型。
ARKit 6.0 | 5.0 | 4.0
允许您在使用带有 LiDAR 扫描仪的设备时实时进行场景重建
。场景重建以纳秒级的速度进行。距离范围可达 5 米(有时甚至更多)。详情看this video .
LiDAR 扫描仪的主要功能之一是:它可以帮助您消除在跟踪和场景理解阶段遇到的日常问题。例如:使用 LiDAR 进行跟踪时,不需要物理运动和优质照明条件。
重建场景准备就绪后,您将获得一个带有Occlusion Material
的多边形几何体,您可以立即将其用于对象遮挡、物理模拟和光估计。
除上述内容外,ARKit 6/5/4 还为您提供了用于管理高质量深度 channel 的深度 API,该 channel 现在以 60 fps 的速度运行。阅读this webpage获取更多信息。
关于computer-vision - ARKit 摄影测量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51276229/