android - 有什么方法可以将自己的语音识别引擎与 android.speech 模块一起使用吗?

标签 android speech-recognition

我自己实现了一个演示语音识别服务。我将它部署在服务器上。现在我可以使用 API ( http://192.168.1.100/ASR/demoSpeechToText ) 访问该服务。我正在将 wav 格式的音频文件和 language 参数传递给 API。 API 运行良好。

我想将其与 Android 应用程序集成。我将其实现为来自应用程序的简单 API 调用,将在录制语音样本后调用。

我想进一步探索以检查将它与 android.speech 模块 ( https://developer.android.com/reference/android/speech/package-summary.html) 集成的可能性。

所以我的问题是,有没有什么方法可以从 audio.speech 模块扩展一些类并编写我自己的类来调用我的语音识别 API,而不是默认一个?我看过这个:https://developer.android.com/reference/android/speech/SpeechRecognizer.html ,但不知道是否可以使用我自己的 API。

最佳答案

RecognitionService 的一个非常小的扩展例如是https://github.com/Kaljurand/speechdemo1 (只是简单地展示了哪些类需要扩展,实际上并没有做任何记录/识别),一个更完整的是https://github.com/Kaljurand/K6nele (录制音频并将其流式传输到现有的云服务,但不支持 wav 文件)。

关于android - 有什么方法可以将自己的语音识别引擎与 android.speech 模块一起使用吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49506032/

相关文章:

computer-science - 声音流中的单词识别技术有哪些?

iOS10语音识别 "Listening"音效

android - Microsoft Cortana API SDK 适用于 iOS 和 Android 吗?

java - 在旋转手机上维护搜索 View 的结果

java - 我按照教程编写了一个 witre/read android 应用程序,但为了我的目的更改了一些内容。应用程序一启动就崩溃

android - 带有 FragmentPagerAdapter 的 ViewPager 不显示

javascript - 如何停止Microsoft认知服务-语音-sdk-js以停止手动监听?

python - 将 MS Azure 上麦克风的连续语音识别存储到单独的变量

android - 运行 4.4.2 的 SPH-L710 (Sprint Galaxy S III) 误报 xdpi 和 ydpi

android - 如何找到一个 GPS 点是否位于给定的一组开始和结束 GPS 位置?