Dialogflow es 流动稳定性

Dialogflow es 流动稳定性,dialogflow-es,Dialogflow Es,我们在Dialogflow上测试了许多聊天机器人实例,其中一些是开发实例,另一些是锁定的生产实例。我们经常进行广泛的测试,以确保我们的回答是一致和正确的 我们注意到,即使在一个锁定的实例上,我们不改变任何东西,实例上Dialogflow的意图和实体响应也会随着时间的推移而改变,在某些情况下会变得不正确 这表明底层的训练算法正在改变,并且当这些改变被释放时,实例正在被自动训练。有人知道情况是否如此吗?如果是这样的话,对于如何维护一个稳定的实例有什么建议吗?首先,如果您锁定了实例,您的意图和实体响应

我们在Dialogflow上测试了许多聊天机器人实例,其中一些是开发实例,另一些是锁定的生产实例。我们经常进行广泛的测试,以确保我们的回答是一致和正确的

我们注意到,即使在一个锁定的实例上,我们不改变任何东西,实例上Dialogflow的意图和实体响应也会随着时间的推移而改变,在某些情况下会变得不正确


这表明底层的训练算法正在改变,并且当这些改变被释放时,实例正在被自动训练。有人知道情况是否如此吗?如果是这样的话,对于如何维护一个稳定的实例有什么建议吗?

首先,如果您锁定了实例,您的意图和实体响应将永远不会改变,除非&直到您提出一个有效/相关的问题。只要您想让它保持原样,您的实例就不会受到影响


第二件事,你有一个实例的恐惧是得到自动训练。看,AI和ML之间有着基本的区别。通过理解用户想说什么的上下文来回答用户是AI,相反,当你试图从用户所说的和基于此的回答中学习时,ML出现在画面中。在api.ai中,NLP使用的是ai而不是ML,因此不存在自动培训的问题。现在,api.ai中ML的启用/禁用选项仅用于计算用户输入的查询与用户所说的意图匹配的百分比的阈值,而不是用于自动培训。

我也处于相同的情况。我们关闭了ML和自动扩展功能,因为当我们进入实体时,有时会在实体中添加测试数据。

对于与@makerGeek无关的意图,可以选择禁用机器学习。商业AI服务的假设是,一旦您训练了一个实例(除非另有明确说明),它就不会改变。如果你必须关闭机器学习来锁定Dialogflow,那么使用Dialogflow没有多大意义,因为它只是一个基于规则的系统。这个答案完全不正确。我们观察到被锁定的实例改变了它们的响应,这就是我首先发布这篇文章的原因。您在AI和ML之间所做的区分也是似是而非的,Dialogflow本身将它们的算法描述为ML而不是AI(尽管标签并不重要)。系统当然会自动更新以响应新的意图数据,我们怀疑在他们更新算法时偶尔会发生这种情况。&所以这就是我要说的,当你训练它做其他事情时,它会如何回答不同的响应?除非你问了一个有效/相关的问题,否则聊天机器人不会偏离正轨。如果你想让我们找出问题的根本原因,你应该发布一些快照。第二件事,我们还锁定了一年半以上的实例,工作完全正常。如果是这样的话,每个人都会注意到的。我建议您转到api.ai支持团队来解决这个问题。ML是ai的一部分&我也回答了您的问题。他们将其标记为ML,因为他们只计算阈值。除了那件事没有别的了。您可以很容易地测试这件事,创建一个示例代理,并在那里有几个培训响应。尝试并训练它以适应不同的用户查询,并检查它是否学习。这不会因为他们根本不使用自动训练模式。我很乐意相信,如果你能提供官方文件,上面说api.ai使用自动培训。