Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/314.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何将多个csv文件从一个较大的文件打开为代码?_Python_Pandas_Csv_File - Fatal编程技术网

Python 如何将多个csv文件从一个较大的文件打开为代码?

Python 如何将多个csv文件从一个较大的文件打开为代码?,python,pandas,csv,file,Python,Pandas,Csv,File,好的,我有一个文件,里面有1000个csv文件。因此,我不必提取500个csv文件,而是想知道可以编写哪些代码来提取所有csv文件,然后将它们附加到列表中。 想象一下: csv_file_list = [] for csv in big_file: csv_file_list.append(csv) 这就是我想做的,很明显,这会提供一个错误,所以我的问题是,如何正确地编码它?将熊猫作为pd导入 导入操作系统 数据集=[] folder_path='此处文件夹的路径(以逗号表示

好的,我有一个文件,里面有1000个csv文件。因此,我不必提取500个csv文件,而是想知道可以编写哪些代码来提取所有csv文件,然后将它们附加到列表中。 想象一下:

csv_file_list = []    

for csv in big_file:
    csv_file_list.append(csv)
这就是我想做的,很明显,这会提供一个错误,所以我的问题是,如何正确地编码它?

将熊猫作为pd导入
导入操作系统
数据集=[]
folder_path='此处文件夹的路径(以逗号表示)'
对于os.listdir(文件夹路径)中的csv:
dataset.append(pd.read\u csv(os.path.join(folder\u path,csv)))

以下是一个示例。是这样吗

numCSVFILES = 10
csv_paths = ['/'.join(['part%d%d'%(j,i) for i in range(3)])+'/csvfile%d.csv'%j for j in range(numCSVFILES)]
with open('junk.txt','w') as fio:
    fio.write('\n'.join(csv_paths))

with open('junk.txt','r') as fio:
    csv2_paths = fio.read().split('\n')

print(csv2_paths)
输出
包含1000个CSV文件或1000个CSV文件路径的文件?包含1000个CSV路径的文件,每个路径中都有数据集您必须在循环中读取CSV文件并将其数据附加到列表中。您能否显示一个代码来执行此操作?我是否使用pandas read_CSV功能读取它们?您的文件格式是什么?你需要举一个例子来获得帮助,好吧,但是我怎么称呼这个大文件呢?假设路径是-Users/benitocano/Desktop/Mega Package Data/us_1500_tickers_A_C_hgj7gj。我该如何写才能让计算机理解?你的大文件也是csv吗?不,这是一个文件夹现在检查我的代码。您必须在第4行中,在这些逗号内写入路径
['part00/part01/part02/csvfile0.csv', 'part10/part11/part12/csvfile1.csv', 'part20/part21/part22/csvfile2.csv', 'part30/part31/part32/csvfile3.csv', 'part40/part41/part42/csvfile4.csv', 'part50/part51/part52/csvfile5.csv', 'part60/part61/part62/csvfile6.csv', 'part70/part71/part72/csvfile7.csv', 'part80/part81/part82/csvfile8.csv', 'part90/part91/part92/csvfile9.csv']