我只需要 Linux 中的语音识别库。然后我选择CMU Sphinx,并使用pocketSphinx和python。我测试了demo 。这个例子在我的电脑上运行良好,但准确性较差。
我知道我需要一个语言模型,并且我已经下载了它。那么,如何设置我的 pocketSphinx 使用“lm”。我的意思是,如何修复该演示文件以使用该语言模型。 (和声学模型。)
非常感谢!
最佳答案
语言模型是通过pocketsphinx gstreamer组件的属性配置的。而不是
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx name=asr ! fakesink')
使用
gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
+ '! vader name=vad auto-threshold=true '
+ '! pocketsphinx lm=<your_file.lm> name=asr ! fakesink')
您也可以配置 pocketsphinx 组件的其他属性。使用 gst-inspect 读取列表。
关于python - python中如何选择pocketSphinx的语言模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9662726/