我正在阅读 this tutorial关于从 iPhone 相机获取像素数据。
虽然运行和使用此代码没有问题,但我需要获取相机数据的输出(来自 BGRA)并将其转换为 ARGB,以便我可以将其与外部库一起使用。我该怎么做?
最佳答案
如果您使用的是 iOS 5.0,则可以使用 Accelerate 框架内的 vImage 使用如下代码(取自 Apple 的 WebCore source code)进行 NEON 优化的颜色组件交换:
vImage_Buffer src;
src.height = height;
src.width = width;
src.rowBytes = srcBytesPerRow;
src.data = srcRows;
vImage_Buffer dest;
dest.height = height;
dest.width = width;
dest.rowBytes = destBytesPerRow;
dest.data = destRows;
// Swap pixel channels from BGRA to RGBA.
const uint8_t map[4] = { 2, 1, 0, 3 };
vImagePermuteChannels_ARGB8888(&src, &dest, map, kvImageNoFlags);
其中 width
、height
和 srcBytesPerRow
是通过 CVPixelBufferGetWidth()
从像素缓冲区获取的,CVPixelBufferGetHeight()
和 CVPixelBufferGetBytesPerRow()
。 srcRows
是指向像素缓冲区中字节基地址的指针,destRows
是您分配用于保存输出 RGBA 图像的内存。
这应该比简单地遍历字节和交换颜色分量要快得多。
根据图像大小,更快的解决方案是将帧上传到 OpenGL ES,渲染一个简单的矩形并将其作为纹理,然后使用 glReadPixels() 下拉 RGBA 值。更好的办法是使用 iOS 5.0 的纹理缓存进行上传和下载,对于 iPhone 4 上的 720p 帧,这个过程只需要 1-3 毫秒。当然,使用 OpenGL ES 意味着需要提取更多支持代码这个关闭。
关于ios - 将 BGRA 转换为 ARGB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10654909/