Python 3.x 使用python脚本中的pandas库合并csv文件时,处理超过1000行的csv文件时出错
当数据集很小时,这可以正常工作。但如果数据集很大,它会将整个列视为输出CSV文件中的一列。因此,当我们使用.drop()函数删除具有列名的列时,它会显示“在axis中找不到” 下面给出了我使用的代码Python 3.x 使用python脚本中的pandas库合并csv文件时,处理超过1000行的csv文件时出错,python-3.x,pandas,csv,Python 3.x,Pandas,Csv,当数据集很小时,这可以正常工作。但如果数据集很大,它会将整个列视为输出CSV文件中的一列。因此,当我们使用.drop()函数删除具有列名的列时,它会显示“在axis中找不到” 下面给出了我使用的代码 import pandas as pd import glob path = r'path to csv files' all_files = glob.glob(path + "/*.csv") li = [] #list to store csv for filename in all_
import pandas as pd
import glob
path = r'path to csv files'
all_files = glob.glob(path + "/*.csv")
li = [] #list to store csv
for filename in all_files:
df = pd.read_csv(filename, index_col=None, header=0)
li.append(df)
frame = pd.concat(li, axis=0, ignore_index=True)
frame=frame.drop(columns=['column_name'])
frame.to_csv('/path to save final csv/new_file.csv')
print(frame)
你能试试这个吗
import pandas as pd
import glob
path = r'path to csv files'
all_files = glob.glob(path + "/*.csv")
li = [] #list to store csv
for filename in all_files:
df = pd.read_csv(filename, index_col=None, header=0)
li.append(df)
frame = pd.concat(li, axis=0, ignore_index=True)
frame.drop(columns=['column_name'],axis=1,inplace=True)
frame.to_csv('/path to save final csv/new_file.csv')
print(frame)
你能帮助@Gaurav Singh吗