Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/83.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
R 序列化(数据,节点$con)中出错:写入与磁盘帧的连接时出错_R_Future_Disk.frame - Fatal编程技术网

R 序列化(数据,节点$con)中出错:写入与磁盘帧的连接时出错

R 序列化(数据,节点$con)中出错:写入与磁盘帧的连接时出错,r,future,disk.frame,R,Future,Disk.frame,我试图在磁盘帧上执行group by,但它遇到了此错误 序列化(数据,节点$con)中出错:写入与的连接时出错 磁盘架 我想知道我是否可以通过改变块的大小来解决这个问题。这似乎表明我有太大而无法处理的块(我的文件有16个块)。我正在考虑用30个块(每个块小得多)重新创建磁盘帧,然后用我的聚合重试。具体来说,聚合正在执行n_distinct 听起来正确吗?是否使用data.table语法?只需使用dplyr语法即可。请参见这是否回答了您的问题?

我试图在磁盘帧上执行group by,但它遇到了此错误

序列化(数据,节点$con)中出错:写入与的连接时出错 磁盘架

我想知道我是否可以通过改变块的大小来解决这个问题。这似乎表明我有太大而无法处理的块(我的文件有16个块)。我正在考虑用30个块(每个块小得多)重新创建磁盘帧,然后用我的聚合重试。具体来说,聚合正在执行
n_distinct


听起来正确吗?

是否使用data.table语法?只需使用dplyr语法即可。请参见

这是否回答了您的问题?