我正在尝试为 iOS 创建一个视频播放器,但有一些额外的音轨阅读。我一直在查看 MPVideoPlayerController,还有 AV Foundation 中的 AVPlayer,但都有些模糊。 我想做的是播放视频(来自本地 .mp4),并在播放电影时获取当前音频缓冲区/帧,这样我就可以做一些计算和其他(不是视频/audio relevant) 依赖于当前播放的音频的 Action 。这意味着视频应该继续播放,带有音轨,但我还想要实时原始音频数据进行计算(例如:获取特定频率的振幅)。
有没有人有这样做的例子或提示?当然,我查看了 Apple 的 AV Foundation 库文档,但对我来说还不够清楚。
最佳答案
经过非常(非常)长时间的谷歌搜索,我发现了一篇描述 MTAudioProcessingTap 的博文。 iOS 6.0引入,完美解决我的问题。
操作方法/博客文章可在此处找到:http://chritto.wordpress.com/2013/01/07/processing-avplayers-audio-with-mtaudioprocessingtap/
我希望它现在对其他任何人都有帮助....... 唯一让我谷歌搜索(有很多不同的术语)的是我自己的帖子。只要您不知道 MTAudioProcessingTap 存在,您就不知道如何用 Google 搜索它:-)
关于iOS 在播放视频时处理音频流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14688092/