我自己实现了一个演示语音识别服务。我将它部署在服务器上。现在我可以使用 API ( http://192.168.1.100/ASR/demoSpeechToText ) 访问该服务。我正在将 wav 格式的音频文件和 language 参数传递给 API。 API 运行良好。
我想将其与 Android 应用程序集成。我将其实现为来自应用程序的简单 API 调用,将在录制语音样本后调用。
我想进一步探索以检查将它与 android.speech 模块 ( https://developer.android.com/reference/android/speech/package-summary.html) 集成的可能性。
所以我的问题是,有没有什么方法可以从 audio.speech 模块扩展一些类并编写我自己的类来调用我的语音识别 API,而不是默认一个?我看过这个:https://developer.android.com/reference/android/speech/SpeechRecognizer.html ,但不知道是否可以使用我自己的 API。
最佳答案
RecognitionService
的一个非常小的扩展例如是https://github.com/Kaljurand/speechdemo1 (只是简单地展示了哪些类需要扩展,实际上并没有做任何记录/识别),一个更完整的是https://github.com/Kaljurand/K6nele (录制音频并将其流式传输到现有的云服务,但不支持 wav 文件)。
关于android - 有什么方法可以将自己的语音识别引擎与 android.speech 模块一起使用吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49506032/