Actions on google 谷歌援助与Api.ai

Actions on google 谷歌援助与Api.ai,actions-on-google,dialogflow-es,Actions On Google,Dialogflow Es,我最近开始学习谷歌援助。我试图了解它是如何在引擎盖下工作的,并从谷歌I/o 16中找到了以下截图 根据我的理解,NLP位于Google帮助部分,负责处理自然语言处理,并实现为了满足用户请求需要做什么 但当我阅读api.ai上的描述时,它被描述为自然语言理解(NLU)。我相信NLU是NLP的一部分 为什么我们需要两个NLU?api.ai在图表中到底做了什么?以下是我理解Google上操作的方式。不管你喜欢多少粒盐都可以吃 首先,有一个短语启动了这个过程。例如,“好的,谷歌与‘我的应用’对话”或“

我最近开始学习谷歌援助。我试图了解它是如何在引擎盖下工作的,并从谷歌I/o 16中找到了以下截图

根据我的理解,NLP位于Google帮助部分,负责处理自然语言处理,并实现为了满足用户请求需要做什么

但当我阅读api.ai上的描述时,它被描述为自然语言理解(NLU)。我相信NLU是NLP的一部分


为什么我们需要两个NLU?api.ai在图表中到底做了什么?

以下是我理解Google上操作的方式。不管你喜欢多少粒盐都可以吃

首先,有一个短语启动了这个过程。例如,“好的,谷歌与‘我的应用’对话”或“好的,谷歌询问‘我的应用’‘我的查询’”。显然,行动平台——不管是什么——需要理解这个短语,是吗?“OK,Google”可能会引入一个针对Google本身的语音搜索,或者它可以发送一个动作,或者它可以是一个发送电子邮件的请求等。此外,如果它发送一个动作,它需要运行该动作,如果它存在,则向它传递一个查询。因此,AoG确实需要一定程度的理解才能开始

但一旦一项行动被分派出去,AoG的工作更多的是认可而不是理解。在谈话的每一个转折点上,它都会将听到的内容——相当不加批判地——张贴到一个动作中,让它理解。然后,该操作返回文本并再次返回,无需理解响应,它将文本通过语音合成器(或TTS引擎,如果您愿意)传递


现在,动作需要理解自己的语法,并根据需要处理短语。一些操作(使用Actions SDK构建的操作)对专有NLU有自己的理解。其他人使用对话框流(以前称为API.AI)来理解文本。在这里,对话流就像一个垫片或中间人,位于第三方操作和AoG平台之间。

以下是我理解谷歌操作的方式。不管你喜欢多少粒盐都可以吃

首先,有一个短语启动了这个过程。例如,“好的,谷歌与‘我的应用’对话”或“好的,谷歌询问‘我的应用’‘我的查询’”。显然,行动平台——不管是什么——需要理解这个短语,是吗?“OK,Google”可能会引入一个针对Google本身的语音搜索,或者它可以发送一个动作,或者它可以是一个发送电子邮件的请求等。此外,如果它发送一个动作,它需要运行该动作,如果它存在,则向它传递一个查询。因此,AoG确实需要一定程度的理解才能开始

但一旦一项行动被分派出去,AoG的工作更多的是认可而不是理解。在谈话的每一个转折点上,它都会将听到的内容——相当不加批判地——张贴到一个动作中,让它理解。然后,该操作返回文本并再次返回,无需理解响应,它将文本通过语音合成器(或TTS引擎,如果您愿意)传递


现在,动作需要理解自己的语法,并根据需要处理短语。一些操作(使用Actions SDK构建的操作)对专有NLU有自己的理解。其他人使用对话框流(以前称为API.AI)来理解文本。在这里,对话流就像一个垫片或中间人,位于第三方操作和AoG平台之间。

Hmm,好的。所以你们说的基本上是谷歌最初试图理解请求的意图。然后根据意图,它调用对话框流来处理操作?因此,对话框流有自己的NLU。是吗?是的,没错。请记住,大多数开发人员在设计时都会选择使用对话框流。让代码“理解”自然语言是一种相对轻松的方法。但是,如果你想完全控制自然语言理解,你可以使用Actions SDK,走自己的路。这是更多的工作。谢谢!这对我帮助很大!嗯,好的。所以你们说的基本上是谷歌最初试图理解请求的意图。然后根据意图,它调用对话框流来处理操作?因此,对话框流有自己的NLU。是吗?是的,没错。请记住,大多数开发人员在设计时都会选择使用对话框流。让代码“理解”自然语言是一种相对轻松的方法。但是,如果你想完全控制自然语言理解,你可以使用Actions SDK,走自己的路。这是更多的工作。谢谢!这对我帮助很大!