批处理R中的30GB json文件

批处理R中的30GB json文件,r,json,csv,bigdata,R,Json,Csv,Bigdata,我有一个很大的(30GB)json推文文件,我想用它来解析并进行一些文本分析。推文是大约2年前使用twitteR软件包中的filter_stream函数获得的。这是一个示例(相当标准): 每当我尝试以下操作时,我的计算机就会停止运行: library(streamR) mydata <- parseTweets("BigData.json", simplify = TRUE) 您是否尝试过jsonlite读取json文件请遵守国际认可的SI单位制-请使用B表示字节,B表示位,因此1兆字

我有一个很大的(30GB)json推文文件,我想用它来解析并进行一些文本分析。推文是大约2年前使用twitteR软件包中的filter_stream函数获得的。这是一个示例(相当标准):

每当我尝试以下操作时,我的计算机就会停止运行:

library(streamR)
mydata <- parseTweets("BigData.json", simplify = TRUE)


您是否尝试过
jsonlite
读取json文件请遵守国际认可的SI单位制-请使用B表示字节,B表示位,因此1兆字节是1MB,1千兆字节是1GB(),1千兆字节是1GB(),如果您出于某种原因必须参考milllibit,那么这将是1MB。谢谢。我尝试了@Bulat指定的解决方案,但得到一个错误:上面添加了编辑。非常感谢。您是否尝试过
jsonlite
读取json文件请遵守国际认可的SI单位制-请使用B表示字节,B表示位,因此1兆字节是1MB,1千兆字节是1GB(),1千兆字节是1GB(),如果您出于某种原因必须参考milllibit,那么这将是1MB。谢谢。我尝试了@Bulat指定的解决方案,但得到一个错误:上面添加了编辑。非常感谢。
Error: lexical error: invalid char in json text.
          _at":"Wed Jul 21 12:54:05 +{"created_at":"Sat Jan 21 17:18:2
                     (right here) ------^