Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/66.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
读取一个大的json文件(超过1GB)需要无限时间,并且RStudio崩溃_Json_R_Mongodb_Dplyr_Rstudio - Fatal编程技术网

读取一个大的json文件(超过1GB)需要无限时间,并且RStudio崩溃

读取一个大的json文件(超过1GB)需要无限时间,并且RStudio崩溃,json,r,mongodb,dplyr,rstudio,Json,R,Mongodb,Dplyr,Rstudio,我有一个mongoDB导出的json文件。此Json的总大小大于3GB 我正在尝试解析嵌套列,并创建自己的数据框架,以便写入CSV文件 我的代码在文件大小很小(如10-20MB)时工作。当我的文件大小增加时,需要无限的时间,有时RStudio会崩溃 我使用 Tiyjon 和 dPLyr 库解析JSON文件。如果是3GB,则考虑将其分解。但是,首先为什么要从JSON导入数据?你不能直接访问数据库吗?或者甚至导入本地数据库并连接到该?R或Rstudio?在任何情况下,如果可能的话,您都应该直接与数据

我有一个mongoDB导出的json文件。此Json的总大小大于3GB

我正在尝试解析嵌套列,并创建自己的数据框架,以便写入CSV文件

我的代码在文件大小很小(如10-20MB)时工作。当我的文件大小增加时,需要无限的时间,有时RStudio会崩溃


我使用<强> Tiyjon 和<强> dPLyr <强>库解析JSON文件。

如果是3GB,则考虑将其分解。但是,首先为什么要从JSON导入数据?你不能直接访问数据库吗?或者甚至导入本地数据库并连接到该?R或Rstudio?在任何情况下,如果可能的话,您都应该直接与数据库接口。@RomanLuštrik我可以与数据库接口,但在类似的情况下,我如何处理大型json文件来解析数据?我的意思是什么是处理大数据量的最佳实践?@ NeilLunn,这是客户端需要从JSON解析数据,而不是从DB解析数据。如果是3GB,那么考虑将其分解。但是,首先为什么要从JSON导入数据?你不能直接访问数据库吗?或者甚至导入本地数据库并连接到该?R或Rstudio?在任何情况下,如果可能的话,您都应该直接与数据库接口。@RomanLuštrik我可以与数据库接口,但在类似的情况下,我如何处理大型json文件来解析数据?我的意思是,处理大数据量的最佳实践是什么?@NeilLunn这是从json而不是从DB解析数据的客户端要求。