我正在尝试开发一个iPhone应用程序来处理/过滤和录制视频。
我有两个示例应用程序,它们具有我需要的方面,并试图将它们组合起来。
AVCamDemo from the WWDC10 sample code package(需要Apple开发者ID)
这涉及捕获/记录视频。
Brad Larson的色度跟踪示例应用程序引用here
使用OpenGL ES处理视频的实时处理。
当我试图把两者结合起来时,我陷入了困境。
我一直在尝试使用AVCaptureVideoOutput
和AVCaptureVideoDataOutputSampleBufferProtocol
来处理/过滤视频帧,通过OpenGL ES(如在-2中),同时不知何故使用AVCaptureMovieFileOutput
记录处理过的视频(如在-1中)。
这种方法可行吗?如果是,我需要如何在AVSession
中设置连接?
或者我需要使用AVCaptureVideoDataOutputSampleBufferProtocol
来处理/过滤视频,然后将各个帧重新组合成电影-不使用AVCaptureMovieFileOutput
保存电影文件?
任何建议,最好的方法,以实现这一点是非常感谢!
最佳答案
http://developer.apple.com/library/ios/#qa/qa1702/_index.html
你可以尝试这个链接,以捕捉视频使用AV基金会,非常有帮助。希望你的一个问题能解决
关于iphone - 通过iPhone上的着色器处理视频时捕获视频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5228406/