Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/json/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何使用pandas读取Python中包含json字符串的.jlog?_Python_Json_Pandas_Dataframe - Fatal编程技术网

如何使用pandas读取Python中包含json字符串的.jlog?

如何使用pandas读取Python中包含json字符串的.jlog?,python,json,pandas,dataframe,Python,Json,Pandas,Dataframe,我在.jlog文件中有一个json字符串,希望使用python将该文件作为包含列的df读取 我的代码如下: import pandas as pd df_weblogs=pd.read_json('C:/Users/me/my_file.jlog', orient='columns') 这给了我一个错误 --------------------------------------------------------------------------- MemoryError

我在.jlog文件中有一个json字符串,希望使用python将该文件作为包含列的df读取

我的代码如下:

   import pandas as pd
   df_weblogs=pd.read_json('C:/Users/me/my_file.jlog', orient='columns')
这给了我一个错误

---------------------------------------------------------------------------
MemoryError                               Traceback (most recent call last)
<ipython-input-20-4085b33a005e> in <module>()
----> 1 df_weblogs=pd.read_json('C:/Users/me/my_file.jlog', orient='columns')
      2 df_weblogs.head(5)

~\Anaconda\lib\site-packages\pandas\io\json\json.py in read_json(path_or_buf, orient, typ, dtype, convert_axes, convert_dates, keep_default_dates, numpy, precise_float, date_unit, encoding, lines, chunksize, compression)
    414         keep_default_dates=keep_default_dates, numpy=numpy,
    415         precise_float=precise_float, date_unit=date_unit, encoding=encoding,
--> 416         lines=lines, chunksize=chunksize, compression=compression,
    417     )
    418 

~\Anaconda\lib\site-packages\pandas\io\json\json.py in __init__(self, filepath_or_buffer, orient, typ, dtype, convert_axes, convert_dates, keep_default_dates, numpy, precise_float, date_unit, encoding, lines, chunksize, compression)
    464 
    465         data = self._get_data_from_filepath(filepath_or_buffer)
--> 466         self.data = self._preprocess_data(data)
    467 
    468     def _preprocess_data(self, data):

~\Anaconda\lib\site-packages\pandas\io\json\json.py in _preprocess_data(self, data)
    475         """
    476         if hasattr(data, 'read') and not self.chunksize:
--> 477             data = data.read()
    478         if not hasattr(data, 'read') and self.chunksize:
    479             data = StringIO(data)

MemoryError: 
---------------------------------------------------------------------------
MemoryError回溯(上次最近调用)
在()
---->1 df_weblogs=pd.read_json('C:/Users/me/my_file.jlog',orient='columns')
2个df_网络日志。标题(5)
读取json格式的~\Anaconda\lib\site packages\pandas\io\json\json.py(路径、方向、类型、数据类型、转换轴、转换日期、保留默认日期、numpy、精确浮点、日期单位、编码、行、块大小、压缩)
414保留默认日期=保留默认日期,numpy=numpy,
415精确浮点=精确浮点,日期单位=日期单位,编码=编码,
-->416行=行,chunksize=chunksize,压缩=压缩,
417     )
418
~\Anaconda\lib\site packages\pandas\io\json\json.py in\uuuuu init\uuuu(self、filepath\u或\u buffer、orient、typ、dtype、convert\u axes、convert\u dates、keep\u default\u dates、numpy、precision\u float、date\u unit、编码、行、chunksize、压缩)
464
465 data=self.\u从文件路径(文件路径或缓冲区)获取数据
-->466 self.data=self.\u预处理\u数据(数据)
467
468定义预处理数据(自身,数据):
数据预处理中的~\Anaconda\lib\site packages\pandas\io\json\json.py(self,data)
475         """
476如果hasattr(数据“读取”)而不是self.chunksize:
-->477 data=data.read()
478如果不是hasattr(数据“读取”)和self.chunksize:
479数据=字符串IO(数据)
记忆错误:

如何正确读取它?

请给我们完整的堆栈跟踪。我添加了完整的堆栈跟踪。jlog文件是什么样子的?您可以添加一个示例吗?