我正在尝试为 Google Home 或 Alexa 构建一个端点,以便我可以处理应用程序内的文本,并为任一设备发出响应以使用其文本转语音。
我查看了Google's Actions SDK并设置示例项目,但我对使用 Google 云平台的目的有点困惑。是云平台将用户的语音处理为文本,还是 Google Home 负责?
最佳答案
语音应用程序通常由几个元素组成:
- 通过支持语音的设备进行音频输入
- 语音识别,由 Alexa 或 Google Actions 等语音平台完成
- 自然语言理解,理解文本
- 代码,它使用 NLU 提供的数据并返回文本以响应用户
对于您关于 Google Actions 的具体问题,Google Platform 上的 Actions 负责语音识别,通常 Google Actions 的自然语言理解部分是由 Dialogflow 完成的。
当您使用 Actions on Google SDK 时,Google Cloud Platform 用于托管您应用的代码。如果您想将其托管在其他地方,您也可以自己解析 JSON,或者使用像 Jovo 这样的框架。 ,它允许您在自己的服务器或 AWS Lambda 上托管语音应用程序。以下是 Google Actions 的简单教程:https://www.jovo.tech/blog/google-action-tutorial-nodejs/
如果您真的只是对使用文本到语音输出感兴趣,您还可以考虑其他方式,例如你可以使用 Amazon Polly ,一项允许您以编程方式或手动进行 TTS 的服务,尽管它目前不提供 Alexa 语音。
关于javascript - 使用 Google Home 或 Alexa 的 TTS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41751394/