几天来我一直被这个问题困扰,几乎浏览了所有相关的 StackOverflow 页面。通过这个,我现在对什么是 FFT 及其工作原理有了更深入的了解。尽管如此,我在将它实现到我的应用程序中时遇到了极大的困难。
简而言之,我想做的是为我的应用程序制作一个频谱可视化工具(类似于 this )。从我收集到的信息来看,我很确定我需要使用声音的大小作为我的酒吧的高度。因此,考虑到所有这些,目前我能够一次分析整个 .caf 文件。为此,我使用了以下代码:
let audioFile = try! AVAudioFile(forReading: soundURL!)
let frameCount = UInt32(audioFile.length)
let buffer = AVAudioPCMBuffer(PCMFormat: audioFile.processingFormat, frameCapacity: frameCount)
do {
try audioFile.readIntoBuffer(buffer, frameCount:frameCount)
} catch {
}
let log2n = UInt(round(log2(Double(frameCount))))
let bufferSize = Int(1 << log2n)
let fftSetup = vDSP_create_fftsetup(log2n, Int32(kFFTRadix2))
var realp = [Float](count: bufferSize/2, repeatedValue: 0)
var imagp = [Float](count: bufferSize/2, repeatedValue: 0)
var output = DSPSplitComplex(realp: &realp, imagp: &imagp)
vDSP_ctoz(UnsafePointer<DSPComplex>(buffer.floatChannelData.memory), 2, &output, 1, UInt(bufferSize / 2))
vDSP_fft_zrip(fftSetup, &output, 1, log2n, Int32(FFT_FORWARD))
var fft = [Float](count:Int(bufferSize / 2), repeatedValue:0.0)
let bufferOver2: vDSP_Length = vDSP_Length(bufferSize / 2)
vDSP_zvmags(&output, 1, &fft, 1, bufferOver2)
这工作正常并输出一长串数据。但是,此代码的问题在于它会立即分析整个音频文件。我需要的是分析正在播放的音频文件,与此视频非常相似:Spectrum visualizer .
所以我想我的问题是:如何在播放音频时执行 FFT 分析?
此外,除此之外,我该如何将 FFT 分析的输出转换为柱的实际高度?我使用上面的 FFT 分析代码收到的音频文件输出之一是:http://pastebin.com/RBLTuGx7 . pastebin 的唯一原因是它有多长。我假设我将所有这些数字平均在一起并使用这些值代替? (仅供引用,我通过在上面的代码中打印出 'fft' 变量得到了那个数组)
我曾尝试通读 EZAudio 代码,但我无法找到他们如何实时阅读音频样本。非常感谢任何帮助。
最佳答案
下面是在 AudioKit 中如何使用 EZAudio 的 FFT 工具完成的:
为您的 FFT 创建一个类来保存数据:
@objc public class AKFFT: NSObject, EZAudioFFTDelegate {
internal let bufferSize: UInt32 = 512
internal var fft: EZAudioFFT?
/// Array of FFT data
public var fftData = [Double](count: 512, repeatedValue: 0.0)
...
}
初始化类并设置 FFT。还要在适当的节点上安装水龙头。
public init(_ input: AKNode) {
super.init()
fft = EZAudioFFT.fftWithMaximumBufferSize(vDSP_Length(bufferSize), sampleRate: 44100.0, delegate: self)
input.avAudioNode.installTapOnBus(0, bufferSize: bufferSize, format: AKManager.format) { [weak self] (buffer, time) -> Void in
if let strongSelf = self {
buffer.frameLength = strongSelf.bufferSize;
let offset: Int = Int(buffer.frameCapacity - buffer.frameLength);
let tail = buffer.floatChannelData[0];
strongSelf.fft!.computeFFTWithBuffer(&tail[offset], withBufferSize: strongSelf.bufferSize)
}
}
}
然后执行回调以加载您的内部 fftData 数组:
@objc public func fft(fft: EZAudioFFT!, updatedWithFFTData fftData: UnsafeMutablePointer<Float>, bufferSize: vDSP_Length) {
dispatch_async(dispatch_get_main_queue()) { () -> Void in
for i in 0...511 {
self.fftData[i] = Double(fftData[i])
}
}
}
AudioKit 的实现可能会改变所以你应该检查 https://github.com/audiokit/AudioKit/看看是否有任何改进。 EZAudio 在 https://github.com/syedhali/EZAudio
关于ios - 使用 FFT 执行音频分析,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34712707/