Python 信息量最大的特征都是对NLTK朴素贝叶斯分类器的正面评价
当我用Python 信息量最大的特征都是对NLTK朴素贝叶斯分类器的正面评价,python,nltk,sentiment-analysis,naivebayes,Python,Nltk,Sentiment Analysis,Naivebayes,当我用 training_set = featuresets[:500] testing_set = featuresets[500:] classifier = nltk.NaiveBayesClassifier.train(training_set) print("Original Naives Bayes Classifier Accuracy Percent:", (nltk.classify.accuracy(classifier, testing_set))*1
training_set = featuresets[:500]
testing_set = featuresets[500:]
classifier = nltk.NaiveBayesClassifier.train(training_set)
print("Original Naives Bayes Classifier Accuracy Percent:", (nltk.classify.accuracy(classifier, testing_set))*100)
classifier.show_most_informative_features(20)
几乎所有出现的功能都是pos:neg
我的培训组有33%的阳性病例。然后,有了这些积极的特征,如果我尝试将分类器应用到我的测试集中,我会得到66%的积极句子,而不是33%
我尝试将分类器应用于测试集,我也得到了66%的阳性案例,而不是33%。
奇怪的是,如果我在测试集上运行分类器的精度,会计算出高精度(这是可预测的),但当我尝试将其应用于测试集时,它会返回许多被归类为肯定的否定句
为了得到预测句子的数量,我正在这样做(请看下面)。我不知道上面是否有编码错误
poss = 0
negg = 0
for custom_tweet in df.text:
custom_tokens = word_tokenize(custom_tweet, language='portuguese')
x = classifier.classify(dict([token, True] for token in custom_tokens))
if x=='pos':
poss +=1
elif x=='neg':
negg +=1
print(poss)
print(negg)