Python KeyError:';[12]不在索引中';熊猫

Python KeyError:';[12]不在索引中';熊猫,python,python-3.x,pandas,nltk,Python,Python 3.x,Pandas,Nltk,我试图标记评论(好的和坏的),但是Pandas崩溃了,出现了KeyError错误:“[12]不在索引中” 这是我的密码: from nltk.tokenize import RegexpTokenizer from nltk.corpus import stopwords from pymorphy2 import tokenizers import nltk, string, json, pymorphy2 import pandas as pd p_data = pd.read_json(

我试图标记评论(好的和坏的),但是Pandas崩溃了,出现了KeyError错误:“[12]不在索引中”

这是我的密码:

from nltk.tokenize import RegexpTokenizer
from nltk.corpus import stopwords
from pymorphy2 import tokenizers
import nltk, string, json, pymorphy2
import pandas as pd

p_data = pd.read_json(open('C:\\Creme\\good.json'))
n_data = pd.read_json(open('C:\\Creme\\bad.json'))

dataset = pd.concat([p_data, n_data])
dataset = dataset[[1, 2]]

dataset.columns = ['text', 'label']

morph = pymorphy2.MorphAnalyzer()

def tokenize_me(file_text):
    file_text = file_text.lower()
    tokens = tokenizers.simple_word_tokenize(file_text)

    tokens = [morph.parse(w)[0].normal_form for w in tokens]

    #deleting punctuation symbols
    tokens = [i for i in tokens if (i not in string.punctuation)]

    #deleting stop_words
    stop_words = stopwords.words('russian')
    stop_words.extend(['что', 'это', 'так', 'вот', 'быть', 'как', 'в', '—', 'к', 'на', '...'])
    tokens = [i for i in tokens if (i not in stop_words)]

    return ' '.join(tokens)

dataset['text'] = dataset['text'].apply(tokenize_me)
dataset.to_csv('C:\\Creme\\cleaned_data2.csv')

帮我修复错误和代码。

我想你想要的是

dataset=dataset.iloc[:,[1,2]]


选择第二列和第三列是什么?

欢迎来到StackOverflow。请按照您创建此帐户时的建议,阅读并遵循帮助文档中的发布指南。适用于这里。在您发布MCVE代码并准确指定问题之前,我们无法有效地帮助您。我们应该能够将您发布的代码粘贴到文本文件中,并重现您指定的问题。非常感谢!!!!正当和往常一样,我对索引感到困惑)