Nlp 朴素贝叶斯分类器:每个类别的语料库大小必须相同吗?

Nlp 朴素贝叶斯分类器:每个类别的语料库大小必须相同吗?,nlp,text-classification,naivebayes,Nlp,Text Classification,Naivebayes,我正在为两个类别构建一个朴素贝叶斯分类器,pos和neg。我希望分类器将包含特定单词的句子分类为pos,如果不包含这些单词的话分类为neg 我的pos语料库是518个包含这些单词的句子。我的问题是:neg的语料库必须有多大 在NLTK的电影评论语料库中,两个类别包含相同数量的文本文件。然而,这个分类器也学习否定词,不是吗?我真的只关心分类器识别属于pos类别的某些单词,而不关心neg类别的单词 因此,两个语料库都包含518个文本文件是否重要?两个类别不必大小相同。谢谢您的回复。你有这方面的消息来

我正在为两个类别构建一个朴素贝叶斯分类器,pos和neg。我希望分类器将包含特定单词的句子分类为pos,如果不包含这些单词的话分类为neg

我的pos语料库是518个包含这些单词的句子。我的问题是:neg的语料库必须有多大

在NLTK的电影评论语料库中,两个类别包含相同数量的文本文件。然而,这个分类器也学习否定词,不是吗?我真的只关心分类器识别属于pos类别的某些单词,而不关心neg类别的单词


因此,两个语料库都包含518个文本文件是否重要?

两个类别不必大小相同。

谢谢您的回复。你有这方面的消息来源吗?或者你是怎么确定的?