Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/279.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用Pandas将大型(14 GB)JSON文件转换为CSV时出现内存错误_Python_Json_Pandas_Csv - Fatal编程技术网

Python 使用Pandas将大型(14 GB)JSON文件转换为CSV时出现内存错误

Python 使用Pandas将大型(14 GB)JSON文件转换为CSV时出现内存错误,python,json,pandas,csv,Python,Json,Pandas,Csv,我想使用pandas将一个大的14 GB JSON文件转换为CSV: import pandas as pd data = pd.read_json('ferdowsi-data.json') data.to_csv('data.csv') 但是我收到一个内存错误。如何解决此错误?将大型文件转换为CSV的最有效方法是什么?也许您希望共享错误回溯和json文件片段?如果您将json列表转换为行分隔的json,则可以通过拆分文件对其进行分块处理。显然,15GB对于许多基于文本的格式并不十分合适

我想使用pandas将一个大的14 GB JSON文件转换为CSV:

import pandas as pd

data = pd.read_json('ferdowsi-data.json')
data.to_csv('data.csv')

但是我收到一个内存错误。如何解决此错误?将大型文件转换为CSV的最有效方法是什么?

也许您希望共享错误回溯和json文件片段?如果您将json列表转换为行分隔的json,则可以通过拆分文件对其进行分块处理。显然,15GB对于许多基于文本的格式并不十分合适