R-GBM |数据使得经过训练的GBM模型非常沉重

R-GBM |数据使得经过训练的GBM模型非常沉重,r,gbm,R,Gbm,我们正在使用GBM模型在海量数据~15GB上进行训练。经过训练的模型大小变大,约为17GB。在经过训练的模型中,我们可以看到与树和其他模型细节一起保存的数据,约占模型总大小的96% 训练模型中的数据是否有任何用途,特别是用于预测目的。 我们正在保存模型并在预测时重新加载模型,这需要很长时间。如果您在R中使用gbm库,则使用gbm.fit并设置keep.data=FALSE label = as.numeric(iris$Species=="setosa") trn = sample(nrow(i

我们正在使用GBM模型在海量数据~15GB上进行训练。经过训练的模型大小变大,约为17GB。在经过训练的模型中,我们可以看到与树和其他模型细节一起保存的数据,约占模型总大小的96%

训练模型中的数据是否有任何用途,特别是用于预测目的。
我们正在保存模型并在预测时重新加载模型,这需要很长时间。

如果您在R中使用
gbm
库,则使用
gbm.fit
并设置
keep.data=FALSE

label = as.numeric(iris$Species=="setosa")
trn = sample(nrow(iris),100)
fit = gbm.fit(x=iris[trn,-5],y=label[trn],shrinkage =0.1,keep.data = FALSE)
此操作失败,因为没有数据:

predict(fit,n.trees = 10,type="response")
Error in reconstructGBMdata(object) : 
  Cannot reconstruct data from gbm object. gbm() was called with keep.data=FALSE
你可以做:

predict(fit,iris[,-5],10,type="response")
predict(fit,iris[-trn,-5],10,type="response")