Actions on google 谷歌辅助行动sdk行动包

Actions on google 谷歌辅助行动sdk行动包,actions-on-google,google-assistant-sdk,google-assist-api,Actions On Google,Google Assistant Sdk,Google Assist Api,actions SDK不识别action.json中的任何其他意图。 我在这篇文章中读到这不是一个bug: 我不明白的是,如果SDK不认可,为什么我们可以选择这样做 有没有其他方法可以在不使用DialogFlow的情况下添加更多意图?没错,这不是一个bug。actions.json文件中列出的意图主要用于对初始意图进行匹配(复数-如果定义了多个意图,它们有助于确定要使用的初始意图)。它们可以帮助进行会话塑造,并建议语音到文本解析器应该寻找什么模式,但它们并不要求解析器遵循这些模式——我敢说,这是

actions SDK不识别action.json中的任何其他意图。 我在这篇文章中读到这不是一个bug:

我不明白的是,如果SDK不认可,为什么我们可以选择这样做


有没有其他方法可以在不使用DialogFlow的情况下添加更多意图?

没错,这不是一个bug。actions.json文件中列出的意图主要用于对初始意图进行匹配(复数-如果定义了多个意图,它们有助于确定要使用的初始意图)。它们可以帮助进行会话塑造,并建议语音到文本解析器应该寻找什么模式,但它们并不要求解析器遵循这些模式——我敢说,这是为了让各种自然语言解析器具有灵活性

后者可能就是它们最终不被使用的原因。与Alexa不同,Alexa需要大量精确的文本来匹配其意图定义,谷歌可能开始走这条路,并意识到最好将其交给其他NLP,无论是你自己的NLP还是商业NLP,它们可以处理人类实际说话方式的灵活性。(然后他们买了一个作为建议使用的工具。)

因此,如果您打算将语言解析交给另一个工具,那么Actions SDK主要就成为了您要使用的工具。与其他任何工具相比,使用它没有多大优势

您没有义务使用Dialogflow。您可以使用任何NLP系统,该系统将接受所需语言的文本输入。谷歌还提供了与匡威.AI的直接集成,我怀疑任何其他NLP都会提供如何将它们与操作集成的方向