我在我的应用程序中使用 OpenEars 来识别一些单词和句子。我遵循了 offline speech recognition 的基本教程并在 Swift 中执行了移植。这是设置过程
self.openEarsEventsObserver = OEEventsObserver()
self.openEarsEventsObserver.delegate = self
let lmGenerator: OELanguageModelGenerator = OELanguageModelGenerator()
addWords()
let name = "LanguageModelFileStarSaver"
lmGenerator.generateLanguageModelFromArray(words, withFilesNamed: name, forAcousticModelAtPath: OEAcousticModel.pathToModel("AcousticModelEnglish"))
lmPath = lmGenerator.pathToSuccessfullyGeneratedLanguageModelWithRequestedName(name)
dicPath = lmGenerator.pathToSuccessfullyGeneratedDictionaryWithRequestedName(name)
识别在一个安静的房间里对单个单词和整个句子都很有效(我会说它有 90% 的命中率)。然而,当我在背景噪音很小的安静酒吧里尝试时,该应用程序在识别单词时遇到了严重困难。 有什么方法可以提高背景噪声下的语音识别能力?
最佳答案
如果背景噪音或多或少是均匀的(即有规律的模式),您可以尝试 adaptation of the acoustic model ,否则它就是一个 Unresolved 问题,有时称为 cocktail party effect ,这can be part solved使用 DNN。
关于ios - 在 iOS 上使用 OpenEars 由于背景噪音导致识别不佳,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35543226/