Speech recognition 在Google应用程序上的操作上设置语音识别上下文?

Speech recognition 在Google应用程序上的操作上设置语音识别上下文?,speech-recognition,actions-on-google,google-speech-api,Speech Recognition,Actions On Google,Google Speech Api,我有一个Google Home应用程序,它使用Google客户端Javascript库上的操作: 语音识别非常好。但有时我会遇到一个识别环境,它有点麻烦。有没有办法告诉语音识别设备在每个用户交互的基础上强调某些单词短语的概率?例如,如果用户被要求提供日期,那么一年中月份的概率是否会高于正常值 在某些语音识别引擎中,您可以向引擎提供词汇表(又名语法等)。有没有一种方法可以通过谷歌应用程序上的操作来实现这一点 我知道谷歌的语音识别API: 但我不知道该API是否通过谷歌服务上的操作公开或可用,或

我有一个Google Home应用程序,它使用Google客户端Javascript库上的操作:

语音识别非常好。但有时我会遇到一个识别环境,它有点麻烦。有没有办法告诉语音识别设备在每个用户交互的基础上强调某些单词短语的概率?例如,如果用户被要求提供日期,那么一年中月份的概率是否会高于正常值

在某些语音识别引擎中,您可以向引擎提供词汇表(又名语法等)。有没有一种方法可以通过谷歌应用程序上的操作来实现这一点

我知道谷歌的语音识别API:


但我不知道该API是否通过谷歌服务上的操作公开或可用,或者该API是否支持语法或上下文列表。

编辑:看起来谷歌上的操作确实有一种方法可以预期某些用户输入。 见:

从这个问题:

原始答复:

你不能改变Google Home感知语音输入的方式,它只是用预定义的词汇表来听。但是,您可以使用从对话中获取某些参数

使用Dialogflow(以前的api.ai),您可以将
日期设置为继续对话所需的参数,或者如果Home app持续听到相同的错误输入,您可以将该输入设置为返回您想要接收的输入

例如:谷歌主页询问日期,用户说“十月”,但主页总是听到“某物”。然后,您可以将“somethingelse”设置为“十月”的同义词,并从那里开始处理它

除此之外,你可以在谷歌上调用少量的操作,而谷歌实际上需要一个特定的输入
即使如此,它也不会增加家庭识别特定上下文的机会。

不,不幸的是,语音识别完全是从你那里抽象出来的,我在尝试命名时也遇到了一些挑战,因此,它有时会尝试寻找类似的英语单词

DialogFlow(formely Api.ai)或任何您使用的框架将在NLP(自然语言处理)的后面使用,以最终处理文本并从中获取关键字

所以就我所知,这并不是演讲到文本的部分

因此,您的google home负责语音到文本的转换,并向您的NLP框架发送文本,该框架负责解决语法问题,但到目前为止,我可以使用API.ai解决所有问题。它非常强大。

我没有使用DialogFlow(Formly API.ai)。我们有自己的输入预处理库。