r更快地加载zip sql
我有一个~5GB的sql存储,我想读入它,然后用R进行处理。 当压缩(gzip)时,封装外形约为2.4 GB,或略小于大小的一半 如果它有一半的内存,那么一半的数据将必须通过驱动器进入ram“管道”。不过,它必须在内存中解压缩r更快地加载zip sql,sql,r,Sql,R,我有一个~5GB的sql存储,我想读入它,然后用R进行处理。 当压缩(gzip)时,封装外形约为2.4 GB,或略小于大小的一半 如果它有一半的内存,那么一半的数据将必须通过驱动器进入ram“管道”。不过,它必须在内存中解压缩 有没有一种方法可以将压缩后的存储导入比读取原始数据更快的R中,或者使用“我最快的选择是读取原始数据”中的数据?您可以通过使用unz、gzfile等包装文件,直接从压缩文件中读取数据。在您的情况下,我相信格式是: data<-read.csv(gzfile('data
有没有一种方法可以将压缩后的存储导入比读取原始数据更快的R中,或者使用“我最快的选择是读取原始数据”中的数据?您可以通过使用
unz
、gzfile
等包装文件,直接从压缩文件中读取数据。在您的情况下,我相信格式是:
data<-read.csv(gzfile('data.gz','data.csv'))
数据您可以通过使用unz
、gzfile
等包装文件,直接从压缩文件中读取数据。在您的情况下,我相信格式是:
data<-read.csv(gzfile('data.gz','data.csv'))
数据