Actions on google Google Actions SDK忽略可能的内容?
我在我的actions.json中定义了如下操作: 触发adding actions.intent.MAIN时,我的服务器响应如下所示:Actions on google Google Actions SDK忽略可能的内容?,actions-on-google,google-home,Actions On Google,Google Home,我在我的actions.json中定义了如下操作: 触发adding actions.intent.MAIN时,我的服务器响应如下所示: { "expectUserResponse": true, "expectedInputs": [ { "inputPrompt": { "richInitialPrompt": { "items": [ { "simpleResponse":
{
"expectUserResponse": true,
"expectedInputs": [
{
"inputPrompt": {
"richInitialPrompt": {
"items": [
{
"simpleResponse": {
"textToSpeech": "Welcome to My App! What would you like to do?",
"displayText": "Welcome to My App! What would you like to do?"
}
}
],
"suggestions": []
}
},
"possibleIntents": [
{
"intent": "FooIntent"
}
]
}
],
"conversationToken": "123"
}
问题是:
为什么当一个用户说“与我的应用程序对话”,然后又回复“foo”时,我只能返回actions.intent.TEXT intent
但是,当用户说在不触发actions.intent.MAIN的情况下向我的应用程序询问foo时,我得到了footintent
我做错了什么?谢谢 您没有做错任何事情-这正是您使用actions.json和actions SDK时的工作方式。自定义意图仅用于,在较小程度上用于 当作为初始触发的一部分使用时,您将获得匹配的意图。但是,作为初始意图的一部分,您只能获得一个自定义意图名称 对于以后的意图,通常会得到actions.intent.TEXT intent,如果使用选项或其他内部响应类型,则会出现例外情况。请求一个自定义意图将有助于确定STT解释器如何处理语音,但它仍将作为actions.intent.TEXT返回 通常-这是所需的行为。Actions SDK主要用于您已经有了自然语言处理器,并且您主要希望将文本发送到NLP的情况。然后,NLP将根据文本确定要采取的操作
如果你没有NLP,我建议你用一个。Dialogflow是通过Actions控制台直接支持的,但是现在大多数NLP都描述了如果你想使用另一个,如何在Google上的Actions中使用Dialogflow。谢谢你的回答!我还收到了一封来自我提交的支持票的电子邮件,说这个功能还不可用-我希望这意味着它很快就会出现!我不能评论谷歌将做什么,因为我不知道,但似乎不太可能。您希望通过actions.json而不是通过其他更好的工具来处理它,有什么原因吗?
{
"expectUserResponse": true,
"expectedInputs": [
{
"inputPrompt": {
"richInitialPrompt": {
"items": [
{
"simpleResponse": {
"textToSpeech": "Welcome to My App! What would you like to do?",
"displayText": "Welcome to My App! What would you like to do?"
}
}
],
"suggestions": []
}
},
"possibleIntents": [
{
"intent": "FooIntent"
}
]
}
],
"conversationToken": "123"
}