我是 iPhone 编程新手,想知道如何通过 Core Image 应用滤镜。另外,核心图像滤镜列表中的哪个滤镜是夜视滤镜,因为我在文档中看到了该列表,但无法确定哪个滤镜看起来像夜视滤镜。
提前致谢
最佳答案
您可以简单地将图像转换为 YCbCr 颜色空间,并在要显示的 RGB 图像中使用 Y channel 值而不是绿色 channel 。建议采用同样的方式here 。最后,您将获得代表更多绿色像素的图像,而不是那些更亮的像素,反之亦然。虽然在夜 View 像中,最亮的像素是白色的,但这样你就会有更多的绿色像素!我认为您可以使用 R 和 B 值的 Y 值的非线性函数来达到此属性。例如:
for(int i=0;i<image.size;i+=3)
{
RGBImage[i] = YCbCrImage[i];
RGBImage[i+1] = 256*log(YCbCrImage[i]+1);
RGBImage[i+2] = 256*log(YCbCrImage[i]+1);
}
干杯
关于iphone - 如何将夜视滤镜应用于 AVCaptureSession 预览层?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18647470/