R gbm和blackboost在内存使用方面的差异

R gbm和blackboost在内存使用方面的差异,r,gbm,R,Gbm,我正在处理一个数据库,它有大约250000个观察值和50个预测值(有些是因子,所以最后大约有100个特性),我在使用blackboost()函数(来自mboost包)时遇到了问题,这给了我一个内存分配错误 同时,gbm()在处理数据量方面没有问题。 根据文档,blackboost使用的算法与gbm相同。(“”) 我猜,不清楚为什么一个函数能够管理数据库,而另一个函数不能管理数据库: gbm有一个子采样策略(由“bag.fraction”参数设置),它似乎没有在blackboost中实现,并且会

我正在处理一个数据库,它有大约250000个观察值和50个预测值(有些是因子,所以最后大约有100个特性),我在使用blackboost()函数(来自mboost包)时遇到了问题,这给了我一个内存分配错误

同时,gbm()在处理数据量方面没有问题。 根据文档,blackboost使用的算法与gbm相同。(“”)

我猜,不清楚为什么一个函数能够管理数据库,而另一个函数不能管理数据库:

  • gbm有一个子采样策略(由“bag.fraction”参数设置),它似乎没有在blackboost中实现,并且会影响内存使用
  • gbm使用CART函数构建树,blackboost使用ctree,ctree似乎占用了大量内存()
我想使用mboost中可用的AUC()loss函数,但gbm中没有,因此我对克服blackboost内存使用限制的任何建议都感兴趣

另外一个问题,当我试图减少模型中的变量数量时,我从blackboost得到了这个新错误:

Error in matrix(f[ind1], nrow = n0, ncol = n1, byrow = TRUE) : the length of the data [107324] is not a multiple of the number of lines [152107]
它似乎来自AUC梯度函数


感谢您的帮助。

您认为
ctree
是原因之一,这是正确的。我在下面展示了一个脚本,它说明了这一点。您可以通过设置
control=party::ctree\u control(…,remove\u weights=TRUE)
稍微降低内存需求,如我所示。但是,据我所知,您无法避免额外存储的
data.frame
和一些其他内存使用原因

以下是一个例子:

# Load data and set options
options(digits = 4)
data("BostonHousing", package = "mlbench")

# Size of the training size
object.size(BostonHousing) / 10^6 # in MB
#> 0.1 bytes

# blackboost and mboost stores a ctree like structure not on the object itself 
# but in an environment in the background. These can be big!
# First, we use some of the default settings
ctrl_lrg_mem <- party::ctree_control(
  teststat = "max",
  testtype = "Teststatistic",
  mincriterion = 0,
  maxdepth = 3,
  stump = FALSE,
  minbucket = 20,
  savesplitstats = FALSE, # Default w/ mboost
  remove_weights = FALSE) # Default w/ mboost

gc() # shows memory usage before
#>           used  (Mb) gc trigger  (Mb) max used  (Mb)
#> Ncells 2467924 131.9    3886542 207.6  3886542 207.6
#> Vcells 4553719  34.8   14341338 109.5 22408297 171.0
fit1 <- mboost::blackboost(
  medv ~ ., data = BostonHousing,
  tree_controls = ctrl_lrg_mem,
  control = mboost::boost_control(
    mstop = 100))
gc() # shows memory usage after
#>           used  (Mb) gc trigger  (Mb) max used  (Mb)
#> Ncells 2494735 133.3    3886542 207.6  3886542 207.6
#> Vcells 5608368  42.8   14341338 109.5 22408297 171.0

# It is not the object it self that requires a lot of memory 
object.size(fit1) / 10^6
#> 1.3 bytes

# It is the objects stored in the environments in the back
tmp_env <- environment(fit1$predict)
length(tmp_env$ens) # The boosted trees
#> [1] 100
sum(unlist(lapply(tmp_env$ens, object.size))) / 10^6
#> [1] 7.312

# Moreover, there is also a model frame for the data stored in the baselearner 
# function's environment which takes some space
env <- environment(fit1$basemodel[[1]]$fit)
str(env$df) # data frame of initial data
#> 'data.frame':    506 obs. of  14 variables:
#>  $ crim                     : num  0.00632 0.02731 0.02729 0.03237 0.06905 ...
#>  $ zn                       : num  18 0 0 0 0 0 12.5 12.5 12.5 12.5 ...
#>  $ indus                    : num  2.31 7.07 7.07 2.18 2.18 2.18 7.87 7.87 7.87 7.87 ...
#>  $ chas                     : Factor w/ 2 levels "0","1": 1 1 1 1 1 1 1 1 1 1 ...
#>  $ nox                      : num  0.538 0.469 0.469 0.458 0.458 0.458 0.524 0.524 0.524 0.524 ...
#>  $ rm                       : num  6.58 6.42 7.18 7 7.15 ...
#>  $ age                      : num  65.2 78.9 61.1 45.8 54.2 58.7 66.6 96.1 100 85.9 ...
#>  $ dis                      : num  4.09 4.97 4.97 6.06 6.06 ...
#>  $ rad                      : num  1 2 2 3 3 3 5 5 5 5 ...
#>  $ tax                      : num  296 242 242 222 222 222 311 311 311 311 ...
#>  $ ptratio                  : num  15.3 17.8 17.8 18.7 18.7 18.7 15.2 15.2 15.2 15.2 ...
#>  $ b                        : num  397 397 393 395 397 ...
#>  $ lstat                    : num  4.98 9.14 4.03 2.94 5.33 ...
#>  $ WLKJDJDQYBTDQCZDNHZMPZNCS: num  0 0 0 0 0 0 0 0 0 0 ...
object.size(env$df) / 10^6
#> 0.1 bytes
# str(env$object) # output excluded for space reasons
object.size(env$object) / 10^6
#> 0.8 bytes

# The above implies that if you data is 1GB then the fit will require 1 GB as
# well as far as I gather

# We can though reduce the memory requirements
ctrl_sml_mem <- party::ctree_control(
  teststat = "max",
  testtype = "Teststatistic",
  mincriterion = 0,
  maxdepth = 3,
  stump = FALSE,
  minbucket = 20,
  savesplitstats = FALSE,
  remove_weights = TRUE)  # Changed

gc()
#>           used  (Mb) gc trigger  (Mb) max used  (Mb)
#> Ncells 2494810 133.3    3886542 207.6  3886542 207.6
#> Vcells 5608406  42.8   14341338 109.5 22408297 171.0
fit2 <- mboost::blackboost(
  medv ~ ., data = BostonHousing,
  tree_controls = ctrl_sml_mem,
  control = mboost::boost_control(
    mstop = 100))
gc()
#>           used  (Mb) gc trigger  (Mb) max used  (Mb)
#> Ncells 2520425 134.7    3886542 207.6  3886542 207.6
#> Vcells 6081411  46.4   14341338 109.5 22408297 171.0

# Reduces the size of the objects in the back
tmp_env <- environment(fit2$predict)
length(tmp_env$ens) # The boosted trees
#> [1] 100
sum(unlist(lapply(tmp_env$ens, object.size))) / 10^6
#> [1] 2.611

#####
# The version I run
sessionInfo(package = c("party", "mboost"))
#> R version 3.4.0 (2017-04-21)
#> Platform: x86_64-w64-mingw32/x64 (64-bit)
#> Running under: Windows >= 8 x64 (build 9200)
#> 
#> Matrix products: default
#> 
#> locale:
#> [1] LC_COLLATE=English_United Kingdom.1252  LC_CTYPE=English_United Kingdom.1252   
#> [3] LC_MONETARY=English_United Kingdom.1252 LC_NUMERIC=C                           
#> [5] LC_TIME=English_United Kingdom.1252    
#> 
#> attached base packages:
#> character(0)
#> 
#> other attached packages:
#> [1] party_1.2-3  mboost_2.8-0
#> 
#> loaded via a namespace (and not attached):
#>  [1] Rcpp_0.12.11        compiler_3.4.0      formatR_1.4         git2r_0.18.0        R.methodsS3_1.7.1  
#>  [6] methods_3.4.0       R.utils_2.5.0       utils_3.4.0         tools_3.4.0         grDevices_3.4.0    
#> [11] boot_1.3-19         digest_0.6.12       jsonlite_1.4        memoise_1.1.0       R.cache_0.12.0     
#> [16] lattice_0.20-35     Matrix_1.2-9        shiny_1.0.2         parallel_3.4.0      curl_2.5           
#> [21] mvtnorm_1.0-6       speedglm_0.3-2      coin_1.1-3          R.rsp_0.41.0        withr_1.0.2        
#> [26] httr_1.2.1          stringr_1.2.0       knitr_1.15.1        stabs_0.6-2         graphics_3.4.0     
#> [31] datasets_3.4.0      stats_3.4.0         devtools_1.12.0     stats4_3.4.0        dynamichazard_0.3.0
#> [36] grid_3.4.0          base_3.4.0          data.table_1.10.4   R6_2.2.0            survival_2.41-2    
#> [41] multcomp_1.4-6      TH.data_1.0-8       magrittr_1.5        nnls_1.4            codetools_0.2-15   
#> [46] modeltools_0.2-21   htmltools_0.3.6     splines_3.4.0       MASS_7.3-47         rsconnect_0.7      
#> [51] strucchange_1.5-1   mime_0.5            xtable_1.8-2        httpuv_1.3.3        quadprog_1.5-5     
#> [56] sandwich_2.3-4      stringi_1.1.5       zoo_1.8-0           R.oo_1.21.0
#加载数据并设置选项
选项(数字=4)
数据(“BostonHousing”,package=“mlbench”)
#训练规模
对象大小(BostonHousing)/10^6英寸(MB)
#>0.1字节
#blackboost和mboost存储的是类似ctree的结构,而不是对象本身
#但是在一个背景环境中。这些可以很大!
#首先,我们使用一些默认设置
ctrl_lrg_mem used(Mb)gc触发器(Mb)max used(Mb)
#>Ncells 2467924131.9 3886542 207.6 3886542 207.6
#>Vcells 4553719 34.8 14341338 109.5 22408297 171.0
fit1已用(Mb)gc触发器(Mb)最大已用(Mb)
#>NCELL 2494735 133.3 3886542 207.6 3886542 207.6
#>Vcells 5608368 42.8 14341338 109.5 22408297 171.0
#需要大量内存的不是对象本身
对象大小(fit1)/10^6
#>1.3字节
#它是存储在后面环境中的对象
tmp_环境[1]100
总和(未列出(lappy(tmp_env$ens,object.size))/10^6
#> [1] 7.312
#此外,baselearner中存储的数据还有一个模型框架
#函数的环境占用了一些空间
环境“data.frame”:506 obs。在14个变量中:
#>$crim:num 0.00632 0.02731 0.02729 0.03237 0.06905。。。
#>$zn:num 18 0 0 0 12.5 12.5 12.5 12.5。。。
#>$indus:num 2.317.077.072.1827.877.877.87。。。
#>$chas:系数w/2级“0”,“1”:1。。。
#>$nox:num 0.538 0.469 0.469 0.458 0.458 0.458 0.524 0.524 0.524 0.524 0.524。。。
#>$rm:num 6.58 6.42 7.18 7.15。。。
#>$age:num 65.278.961.145.854.258.766.696.1100 85.9。。。
#>$dis:num 4.09 4.97 4.97 6.06 6.06。。。
#>$rad:num 1 2 3 3 3 5 5 5 5。。。
#>$tax:num 296 242 242 222 222 311 311 311 311。。。
#>$ptratio:num15.317.817.818.718.718.715.215.215.215.215.215.215.2。。。
#>$b:num 397 393 395 397。。。
#>$lstat:num 4.98 9.14 4.03 2.94 5.33。。。
#>$WLKJDJDQYBTDQCZDNHZMPZNCS:num 0 0 0 0 0。。。
对象大小(环境$df)/10^6
#>0.1字节
#str(环境$object)#由于空间原因,输出被排除在外
对象大小(环境$object)/10^6
#>0.8字节
#上述情况意味着,如果您的数据为1GB,则拟合将需要1GB
#就我所知
#我们可以减少内存需求
ctrl_sml_mem used(Mb)gc触发器(Mb)max used(Mb)
#>NCELL 2494810 133.3 3886542 207.6 3886542 207.6
#>Vcells 5608406 42.8 14341338 109.5 22408297 171.0
fit2已用(Mb)gc触发器(Mb)最大已用(Mb)
#>Ncells 2520425 134.7 3886542 207.6 3886542 207.6
#>Vcells 6081411 46.4 14341338 109.5 22408297 171.0
#减少后面对象的大小
tmp_环境[1]100
总和(未列出(lappy(tmp_env$ens,object.size))/10^6
#> [1] 2.611
#####
#我运行的版本
sessionInfo(package=c(“一方”、“mboost”))
#>R版本3.4.0(2017-04-21)
#>平台:x86_64-w64-mingw32/x64(64位)
#>在以下环境下运行:Windows>=8 x64(内部版本9200)
#> 
#>矩阵乘积:默认值
#> 
#>区域设置:
#>[1]LC_COLLATE=英国。1252 LC_CTYPE=英国。1252
#>[3]LC_MONETARY=English_United Kingdom.1252 LC_NUMERIC=C
#>[5]伦敦时间=英国时间1252
#> 
#>附加基本包:
#>字符(0)
#> 
#>其他随附包裹:
#>[1]party_1.2-3 mboost_2.8-0
#> 
#>通过命名空间加载(未附加):
#>[1]Rcpp_0.12.11编译器_3.4.0格式化程序_1.4 git2r_0.18.0 R.Methods3_1.7.1
#>[6]方法\u 3.4.0 R.utils\u 2.5.0 utils\u 3.4.0工具\u 3.4.0 GRU 3.4.0
#>[11]boot_1.3-19 digest_0.6.12 jsonlite_1.4 memoise_1.1.0 R.cache_0.12.0
#>[16]晶格_0.20-35矩阵_1.2-9闪亮_1.0.2平行_3.4.0卷曲_2.5
#>[21]mvtnorm_1.0-6 speedglm_0.3-2硬币_1.1-3 R.rsp_0.41.0带R_1.0.2
#>[26]httr_1.2.1 stringr_1.2.0 knitr_1.15.1 Stab_0.6-2 graphics_3.4.0
#>[31]数据集_3.4.0统计数据_3.4.0