Machine learning 基于树莓pi的可靠文本分类NLP算法

Machine learning 基于树莓pi的可靠文本分类NLP算法,machine-learning,nlp,artificial-intelligence,classification,text-classification,Machine Learning,Nlp,Artificial Intelligence,Classification,Text Classification,试着开始运行我自己的智能房间 到目前为止,该系统在RASPI3、谷歌STT、用于文本分类的朴素贝叶斯、nlp折衷的PoS/NER、一堆API,然后是eSpeak上运行。(当然还有很多其他阶段,但一般来说) 有一件事是有问题的,那就是文本分类。虽然NB做得很好,但确实存在一些问题 各种文本分类在很大程度上依赖于这样一个事实,即需要使用大型语料库进行训练。这是有意义的,特别是如果应用程序是新闻分类,例如 但这里我们谈论的是口语。如果这句话是告诉我天气,那么你只能为这句简单的语句中的变化生成这么多语料

试着开始运行我自己的智能房间

到目前为止,该系统在RASPI3、谷歌STT、用于文本分类的朴素贝叶斯、nlp折衷的PoS/NER、一堆API,然后是eSpeak上运行。(当然还有很多其他阶段,但一般来说)

有一件事是有问题的,那就是文本分类。虽然NB做得很好,但确实存在一些问题

各种文本分类在很大程度上依赖于这样一个事实,即需要使用大型语料库进行训练。这是有意义的,特别是如果应用程序是新闻分类,例如

但这里我们谈论的是口语。如果这句话是
告诉我天气
,那么你只能为这句简单的语句中的变化生成这么多语料库。尽管如此,还是要想办法询问天气情况

我不认为每个类别都会有大量的语句数据集来帮助设备清楚地区分命令

问题:

  • 在这里我能做什么,因为更多的类别(或技能集)意味着更多类似的语句

  • 因为这是一个分类问题,即使使用SVM或RNN或任何其他技巧,也不应该有任何区别,即使我必须为此装配一个外部GPU。语料库是关于各种类别的口语句子,数据集不能期望对系统有不同的教育意义

  • 但老实说,我不清楚什么才是可靠的分类方法,只是为了这样的特定目的

    PS-我见过Jasper是如何工作的,但即使是这样,也不能解决很多次更好地“理解”类别的问题