读取一个大的json文件(超过1GB)需要无限时间,并且RStudio崩溃
我有一个mongoDB导出的json文件。此Json的总大小大于3GB 我正在尝试解析嵌套列,并创建自己的数据框架,以便写入CSV文件 我的代码在文件大小很小(如10-20MB)时工作。当我的文件大小增加时,需要无限的时间,有时RStudio会崩溃读取一个大的json文件(超过1GB)需要无限时间,并且RStudio崩溃,json,r,mongodb,dplyr,rstudio,Json,R,Mongodb,Dplyr,Rstudio,我有一个mongoDB导出的json文件。此Json的总大小大于3GB 我正在尝试解析嵌套列,并创建自己的数据框架,以便写入CSV文件 我的代码在文件大小很小(如10-20MB)时工作。当我的文件大小增加时,需要无限的时间,有时RStudio会崩溃 我使用 Tiyjon 和 dPLyr 库解析JSON文件。如果是3GB,则考虑将其分解。但是,首先为什么要从JSON导入数据?你不能直接访问数据库吗?或者甚至导入本地数据库并连接到该?R或Rstudio?在任何情况下,如果可能的话,您都应该直接与数据
我使用<强> Tiyjon 和<强> dPLyr <强>库解析JSON文件。
如果是3GB,则考虑将其分解。但是,首先为什么要从JSON导入数据?你不能直接访问数据库吗?或者甚至导入本地数据库并连接到该?R或Rstudio?在任何情况下,如果可能的话,您都应该直接与数据库接口。@RomanLuštrik我可以与数据库接口,但在类似的情况下,我如何处理大型json文件来解析数据?我的意思是什么是处理大数据量的最佳实践?@ NeilLunn,这是客户端需要从JSON解析数据,而不是从DB解析数据。如果是3GB,那么考虑将其分解。但是,首先为什么要从JSON导入数据?你不能直接访问数据库吗?或者甚至导入本地数据库并连接到该?R或Rstudio?在任何情况下,如果可能的话,您都应该直接与数据库接口。@RomanLuštrik我可以与数据库接口,但在类似的情况下,我如何处理大型json文件来解析数据?我的意思是,处理大数据量的最佳实践是什么?@NeilLunn这是从json而不是从DB解析数据的客户端要求。