Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/python-3.x/18.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 3.x 使用python脚本中的pandas库合并csv文件时,处理超过1000行的csv文件时出错_Python 3.x_Pandas_Csv - Fatal编程技术网

Python 3.x 使用python脚本中的pandas库合并csv文件时,处理超过1000行的csv文件时出错

Python 3.x 使用python脚本中的pandas库合并csv文件时,处理超过1000行的csv文件时出错,python-3.x,pandas,csv,Python 3.x,Pandas,Csv,当数据集很小时,这可以正常工作。但如果数据集很大,它会将整个列视为输出CSV文件中的一列。因此,当我们使用.drop()函数删除具有列名的列时,它会显示“在axis中找不到” 下面给出了我使用的代码 import pandas as pd import glob path = r'path to csv files' all_files = glob.glob(path + "/*.csv") li = [] #list to store csv for filename in all_

当数据集很小时,这可以正常工作。但如果数据集很大,它会将整个列视为输出CSV文件中的一列。因此,当我们使用.drop()函数删除具有列名的列时,它会显示“在axis中找不到”

下面给出了我使用的代码

import pandas as pd
import glob

path = r'path to csv files'
all_files = glob.glob(path + "/*.csv")

li = []  #list to store csv

for filename in all_files:
        df = pd.read_csv(filename, index_col=None, header=0)
        li.append(df)

frame = pd.concat(li, axis=0, ignore_index=True)
frame=frame.drop(columns=['column_name'])
frame.to_csv('/path to save final csv/new_file.csv')
print(frame)

你能试试这个吗

import pandas as pd
import glob

path = r'path to csv files'
all_files = glob.glob(path + "/*.csv")

li = []  #list to store csv

for filename in all_files:
        df = pd.read_csv(filename, index_col=None, header=0)
        li.append(df)

frame = pd.concat(li, axis=0, ignore_index=True)
frame.drop(columns=['column_name'],axis=1,inplace=True)
frame.to_csv('/path to save final csv/new_file.csv')
print(frame)

你能帮助@Gaurav Singh吗