我想从 iPhone7 Plus 获取深度数据(不是视差) 现在,我引用示例源“AVCamPhotoFilter”。
而且,现在我可能可以获得视差数据。
但是,我不知道如何获取深度数据。
所以,根据AVDepthData的引用资料, heightDataMap是深度数据或视差数据。
如果我想获取深度数据, 我需要设置 activeDepthDataFormat 或使用视差数据进行计算?
如何设置activeDepthDataFormat? 或者 如何计算?
我期待收到您的来信。
最佳答案
如果您还没有,请查看:https://developer.apple.com/videos/play/wwdc2017/507/
计算:查看11:00的视频
要直接获取数据,需要使用
func converting(toDepthDataType depthDataType: OSType)
并使用视频中 14:20 处的数据类型之一,它们是:
kCVPixelFormatType_DisparityFloat16
kCVPixelFormatType_DisparityFloat32
kCVPixelFormatType_DepthFloat16
kCVPixelFormatType_DepthFloat32
进行编辑以包含数据类型名称。
关于iphone - 我想从 iPhone 7 Plus 获取深度数据(不是视差),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46908432/