Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/283.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Sklearn的增量训练SGD分类器_Python_Machine Learning_Scikit Learn_Sentiment Analysis_Text Classification - Fatal编程技术网

Python Sklearn的增量训练SGD分类器

Python Sklearn的增量训练SGD分类器,python,machine-learning,scikit-learn,sentiment-analysis,text-classification,Python,Machine Learning,Scikit Learn,Sentiment Analysis,Text Classification,如何增量训练SKL中可用的SGDClassizer学习句子的线性模型。 它通常是用文档来训练的。但我想用一个接一个的句子来训练它。我想逐步训练它,让它用于情绪分析的tweet。任何用python示例的解释都会非常有帮助 任务:tweet的情绪分析 疑问:关于标签推文的增量培训 提前谢谢。把句子列出来就行了 比如说 sents=["I am x","I am Y"] 然后使用HashingVectorizer对其进行变换,然后使用partial_fit对其进行增量训练。 这对我有用 谢天谢地,S

如何增量训练SKL中可用的SGDClassizer学习句子的线性模型。 它通常是用文档来训练的。但我想用一个接一个的句子来训练它。我想逐步训练它,让它用于情绪分析的tweet。任何用python示例的解释都会非常有帮助

任务:tweet的情绪分析 疑问:关于标签推文的增量培训


提前谢谢。

把句子列出来就行了 比如说

sents=["I am x","I am Y"]
然后使用HashingVectorizer对其进行变换,然后使用partial_fit对其进行增量训练。 这对我有用


谢天谢地,SGDClassizer没有文档的概念,只有样本(特征向量)。如果您将文本拆分为句子,然后使用
HashingVectorizer
对其进行矢量化,它应该可以正常工作。是的,我今天这样做了,而且它正在工作。事实上昨天我没能做到这一点。我在scikit learn中遵循了核心外实现示例,并与小批量混淆。顺便说一句,感谢您的回复…:)@larsmans告诉我们如何编写自己的功能。在哈希向量中,如何提取功能???@larsmans以及如何微调哈希向量器参数。