Nlp 聊天机器人能否在与可信用户聊天时学习或取消学习

Nlp 聊天机器人能否在与可信用户聊天时学习或取消学习,nlp,chatbot,rasa,Nlp,Chatbot,Rasa,像[Rasa]这样的聊天机器人能否从受信任的用户(新的额外员工、产品ID、产品类别或属性)中学习,或者在这些实体不再是最新实体时取消学习? 或者,在新版本投入使用之前,我是否必须进行正式的数据收集、培训课程、测试(置信率>给定比率)。如果您有实体值正在根据有效值的移动列表进行检查,则根据始终是最新的数据库检查这些值更具可扩展性(例如,您的后端系统可能有一个可查询的当前员工列表)。然后,如果用户提供了一个以前有效但现在无效的值,则其行为将与用户首先提供的无效值相同 这样,无论某些培训示例是否不相关

像[Rasa]这样的聊天机器人能否从受信任的用户(新的额外员工、产品ID、产品类别或属性)中学习,或者在这些实体不再是最新实体时取消学习?
或者,在新版本投入使用之前,我是否必须进行正式的数据收集、培训课程、测试(置信率>给定比率)。

如果您有实体值正在根据有效值的移动列表进行检查,则根据始终是最新的数据库检查这些值更具可扩展性(例如,您的后端系统可能有一个可查询的当前员工列表)。然后,如果用户提供了一个以前有效但现在无效的值,则其行为将与用户首先提供的无效值相同


这样,无论某些培训示例是否不相关,实体提取都可以保持不变——当然,让您的数据保持最新总是好的!

许多聊天机器人没有这样的功能。除了像Alexa这样的具有关键字“记住”的先进聊天机器人之外2017年可用+/-。用户希望Alexa记住某些事实


IMHO这样一个功能是“智能”的标志。在ML系统中实现这一功能并不容易,在通过学习示例后,通过反向传播更新其神经网络模型中的系数。基于规则的系统(如CHAT80地理QA系统)将他们的知识存储在可以更透明地更新的关系中。

你知道Rasa或其他聊天机器人是否具有像你建议的那样“对照数据库检查值”的功能吗?AFAIK机器学习算法将他们的“知识”存储在底层网络的模糊系数中w/o(人类)逻辑对应。我认为聊天机器人知识既不可扩展也不可扩展(如问题中提到的额外事实),至少到今天为止。可能在5年后?这是您要为其编写函数的内容。因此,例如,如果您有一个名为
检查\u employee\u value
的操作,该操作接收实体并对照数据库进行检查,您可以返回
“employee”:“value”
插槽(如果有效),以及
“employee”:None
如果无效。这是一种根据值是否有效来更改对话的方法,考虑到有效值列表的变化,而不需要ML算法嵌入哪些值有效的信息。我的问题与代码无关,但更多的是关于chatbot technologies目前可用的功能乐。