Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/348.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 有没有办法让我的代码更快地读取excel文件?_Python_Excel_Pandas - Fatal编程技术网

Python 有没有办法让我的代码更快地读取excel文件?

Python 有没有办法让我的代码更快地读取excel文件?,python,excel,pandas,Python,Excel,Pandas,我有一个从一个文件夹中的许多excel文件中读取数据的代码。以下是负责读取数据的行: d[file]=pd.read\u excel(文件名[file],nrows=ilosc\u wierszy,usecols=range(kol\u odp+1)).fillna(“”) 一些文件的大小为1601KB,而其他文件只有21KB。我不知道为什么会这样,因为原始文件应该是相同的。然而,每个文件上都有相同的数据。那么,python是如何在不到一秒钟的时间内读取大文件(如30秒)和小文件的呢?在上面的

我有一个从一个文件夹中的许多excel文件中读取数据的代码。以下是负责读取数据的行:

d[file]=pd.read\u excel(文件名[file],nrows=ilosc\u wierszy,usecols=range(kol\u odp+1)).fillna(“”)

一些文件的大小为1601KB,而其他文件只有21KB。我不知道为什么会这样,因为原始文件应该是相同的。然而,每个文件上都有相同的数据。那么,python是如何在不到一秒钟的时间内读取大文件(如30秒)和小文件的呢?在上面的一行中,我指定只需要nrows和usecols,因此我认为python应该只读取该文件并转到下一个文件。为什么需要这么长的时间?有什么方法可以加快速度吗?

较大的文件包含更多字节,因此读取和处理时间较长。它必须将整个Excel文件读入内存,然后才能执行任何操作。Excel文件的存储方式不允许您跳转到特定单元格,而不需要所有其他标记。这可能有助于您: