iOS 在播放视频时处理音频流

标签 ios audio video real-time avfoundation

我正在尝试为 iOS 创建一个视频播放器,但有一些额外的音轨阅读。我一直在查看 MPVideoPlayerController,还有 AV Foundation 中的 AVPlayer,但都有些模糊。 我想做的是播放视频(来自本地 .mp4),并在播放电影时获取当前音频缓冲区/帧,这样我就可以做一些计算和其他(不是视频/audio relevant) 依赖于当前播放的音频的 Action 。这意味着视频应该继续播放,带有音轨,但我还想要实时原始音频数据进行计算(例如:获取特定频率的振幅)。

有没有人有这样做的例子或提示?当然,我查看了 Apple 的 AV Foundation 库文档,但对我来说还不够清楚。

最佳答案

经过非常(非常)长时间的谷歌搜索,我发现了一篇描述 MTAudioProcessingTap 的博文。 iOS 6.0引入,完美解决我的问题。

操作方法/博客文章可在此处找到:http://chritto.wordpress.com/2013/01/07/processing-avplayers-audio-with-mtaudioprocessingtap/

我希望它现在对其他任何人都有帮助....... 唯一让我谷歌搜索(有很多不同的术语)的是我自己的帖子。只要您不知道 MTAudioProcessingTap 存在,您就不知道如何用 Google 搜索它:-)

关于iOS 在播放视频时处理音频流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14688092/

相关文章:

ios - iOS 中两种纹理的非幂

html - 如果浏览器不支持预加载 ="none"标签,视频会发生什么情况?

html - 播放视频时在视频 jwplayer7 中间显示暂停按钮

c# - 将音频输出发送到所有扬声器设备

android - 将视频输入流转换为 RTMP

ios - 如何在 iOS 中使用 UIView 动画显示类似 UIAction 表的 UIView?

ios - NSExpression 子查询用法

ios - Swift 的 map 和 filter 函数时间复杂度

vb.net - VB.net直播频率检测

python-2.7 - 是否可以使用 python 在音频文件中找到静音?