Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
R 如何处理biglm函数对ffdf对象的内存限制错误_R_Lm_Ff - Fatal编程技术网

R 如何处理biglm函数对ffdf对象的内存限制错误

R 如何处理biglm函数对ffdf对象的内存限制错误,r,lm,ff,R,Lm,Ff,我在R中有一个大的ffdf对象。它包含x和y值,每列有71998512个值 我正在尝试在biglm包中应用biglm函数,如下所示 dat <- ffdf(Back = Pitch_Back$V1, Head = Pitch_Head$V1) fit_linear <- biglm(Back ~ Head, data = dat) dat不太严肃但完全实用的答案是,如果你对1%的数据进行采样,那么你的模型将达到99.999…%,与基于所有数据构建的模型相似

我在R中有一个大的
ffdf
对象。它包含x和y值,每列有71998512个值

我正在尝试在
biglm
包中应用
biglm
函数,如下所示

dat <- ffdf(Back = Pitch_Back$V1,  Head = Pitch_Head$V1)            
fit_linear <- biglm(Back ~ Head, data = dat)

dat不太严肃但完全实用的答案是,如果你对1%的数据进行采样,那么你的模型将达到99.999…%,与基于所有数据构建的模型相似。前面这个问题的主要次要答案是:非常感谢。我要尝试一下。答案不那么严肃,但完全务实。如果你对1%的数据进行采样,那么你的模型将达到99.999…%,与基于所有数据构建的模型相似。严肃的次要答案主要是对前面这个问题的回答:非常感谢。我要试试看。