r - H2O:无法通过 `h2o.loadModel` 从磁盘读取大型模型

标签 r linux h2o

  • 更新于 2017 年 6 月 28 日,如下,以回应@Michal Kurka。
  • 2017 年 6 月 26 日更新,如下。

我无法加载以原生 H2O 格式(即十六进制)保存的大型 GBM 模型。

  • H2O v3.10.5.1
  • R v3.3.2
  • Linux 3.10.0-327.el7.x86_64 GNU/Linux

我的目标是最终将这个模型保存为 MOJO。

这个模型太大了,我不得不用最小/最大内存 100G/200G 初始化 H2O,然后 H2O 的模型训练才能成功运行。

这就是我训练 GBM 模型的方式:

localH2O <- h2o.init(ip = 'localhost', port = port, nthreads = -1,
                     min_mem_size = '100G', max_mem_size = '200G')

iret <- h2o.gbm(x = predictors, y = response, training_frame = train.hex,
                validation_frame = holdout.hex, distribution="multinomial",
                ntrees = 3000, learn_rate = 0.01, max_depth = 5, nbins = numCats,
                model_id = basename_model)

gbm <- h2o.getModel(basename_model)
oPath <- h2o.saveModel(gbm, path = './', force = TRUE)

训练数据包含 1413 列的 81,886 条记录。在这些列中,有 19 个是因子。这些列中的绝大多数是 0/1。

$ wc -l training/*.txt
     81887 training/train.txt
     27294 training/holdout.txt

这是写入磁盘的保存模型:

$ ls -l

total 37G
-rw-rw-r-- 1 bfo7328 37G Jun 22 19:57 my_model.hex

这就是我尝试使用相同的大内存分配值 100G/200G 从磁盘读取模型的方式:

$ R

R version 3.3.2 (2016-10-31) -- "Sincere Pumpkin Patch"
Copyright (C) 2016 The R Foundation for Statistical Computing
Platform: x86_64-redhat-linux-gnu (64-bit)

> library(h2o)
> localH2O=h2o.init(ip='localhost', port=65432, nthreads=-1,
                  min_mem_size='100G', max_mem_size='200G')

H2O is not running yet, starting it now...

Note:  In case of errors look at the following log files:
    /tmp/RtmpVSwxXR/h2o_bfo7328_started_from_r.out
    /tmp/RtmpVSwxXR/h2o_bfo7328_started_from_r.err

openjdk version "1.8.0_121"
OpenJDK Runtime Environment (build 1.8.0_121-b13)
OpenJDK 64-Bit Server VM (build 25.121-b13, mixed mode)

Starting H2O JVM and connecting: .. Connection successful!

R is connected to the H2O cluster: 
    H2O cluster uptime:         3 seconds 550 milliseconds 
    H2O cluster version:        3.10.5.1 
    H2O cluster version age:    13 days  
    H2O cluster name:           H2O_started_from_R_bfo7328_kmt050 
    H2O cluster total nodes:    1 
    H2O cluster total memory:   177.78 GB 
    H2O cluster total cores:    64 
    H2O cluster allowed cores:  64 
    H2O cluster healthy:        TRUE 
    H2O Connection ip:          localhost 
    H2O Connection port:        65432 
    H2O Connection proxy:       NA 
    H2O Internal Security:      FALSE 
    R Version:                  R version 3.3.2 (2016-10-31) 

来自 /tmp/RtmpVSwxXR/h2o_bfo7328_started_from_r.out :

INFO: Processed H2O arguments: [-name, H2O_started_from_R_bfo7328_kmt050, -ip, localhost, -port, 65432, -ice_root, /tmp/RtmpVSwxXR]
INFO: Java availableProcessors: 64
INFO: Java heap totalMemory: 95.83 GB
INFO: Java heap maxMemory: 177.78 GB
INFO: Java version: Java 1.8.0_121 (from Oracle Corporation)
INFO: JVM launch parameters: [-Xms100G, -Xmx200G, -ea]
INFO: OS version: Linux 3.10.0-327.el7.x86_64 (amd64)
INFO: Machine physical memory: 1.476 TB

我调用 h2o.loadModel :

if ( TRUE ) {
  now <- format(Sys.time(), "%a %b %d %Y %X")
  cat( sprintf( 'Begin %s\n', now ))

  model_filename <- './my_model.hex'
  in_model.hex <- h2o.loadModel( model_filename )

  now <- format(Sys.time(), "%a %b %d %Y %X")
  cat( sprintf( 'End   %s\n', now ))
}

来自 /tmp/RtmpVSwxXR/h2o_bfo7328_started_from_r.out :

INFO: GET /, parms: {}
INFO: GET /, parms: {}
INFO: GET /, parms: {}
INFO: GET /3/InitID, parms: {}
INFO: Locking cloud to new members, because water.api.schemas3.InitIDV3
INFO: POST /99/Models.bin/, parms: {dir=./my_model.hex}

等待一个小时后,我看到这些“内存不足”(OOM) 错误消息:

INFO: POST /99/Models.bin/, parms: {dir=./my_model.hex}
#e Thread WARN: Swapping!  GC CALLBACK, (K/V:24.86 GB + POJO:112.01 GB + FREE:40.90 GB == MEM_MAX:177.78 GB), desiredKV=22.22 GB OOM!
#e Thread WARN: Swapping!  GC CALLBACK, (K/V:26.31 GB + POJO:118.41 GB + FREE:33.06 GB == MEM_MAX:177.78 GB), desiredKV=22.22 GB OOM!
#e Thread WARN: Swapping!  GC CALLBACK, (K/V:27.36 GB + POJO:123.03 GB + FREE:27.39 GB == MEM_MAX:177.78 GB), desiredKV=22.22 GB OOM!
#e Thread WARN: Swapping!  GC CALLBACK, (K/V:28.21 GB + POJO:126.73 GB + FREE:22.83 GB == MEM_MAX:177.78 GB), desiredKV=22.22 GB OOM!

我不希望需要这么多内存来从磁盘读取模型。

如何将此模型从磁盘读入内存。一旦我这样做了,我可以将它保存为 MOJO 吗?


更新 1:2017 年 6 月 26 日

我刚刚注意到 GBM 模型的磁盘大小在不同版本的 H2O 之间急剧增加:

H2O v3.10.2.1:
    -rw-rw-r-- 1 169M Jun 19 07:23 my_model.hex

H2O v3.10.5.1:
    -rw-rw-r-- 1  37G Jun 22 19:57 my_model.hex

有什么想法吗?这可能是问题的根源吗?


更新 2:2017 年 6 月 28 日,回应@Michal Kurka 的评论。

当我通过 fread 加载训练数据时,每列的类(类型)是正确的: * 24列为‘字符’; * 1389 列为“整数”(除一列外均为 0/1); * 总共 1413 列。

然后我将 R-native 数据框转换为 H2O 数据框并手动分解 20 列:

train.hex <- as.h2o(df.train, destination_frame = "train.hex”)
length(factorThese)
[1] 20
train.hex[factorThese] <- as.factor(train.hex[factorThese])
str(train.hex)

str(train.hex) 输出的精简版,仅显示作为因子的那 19 列(1 个因子是响应列):

 - attr(*, "nrow")= int 81886
 - attr(*, "ncol")= int 1413
 - attr(*, "types")=List of 1413
  ..$ : chr "enum" : Factor w/ 72 levels
  ..$ : chr "enum" : Factor w/ 77 levels
  ..$ : chr "enum" : Factor w/ 51 levels
  ..$ : chr "enum" : Factor w/ 4226 levels
  ..$ : chr "enum" : Factor w/ 4183 levels
  ..$ : chr "enum" : Factor w/ 3854 levels
  ..$ : chr "enum" : Factor w/ 3194 levels
  ..$ : chr "enum" : Factor w/ 735 levels
  ..$ : chr "enum" : Factor w/ 133 levels
  ..$ : chr "enum" : Factor w/ 16 levels
  ..$ : chr "enum" : Factor w/ 25 levels
  ..$ : chr "enum" : Factor w/ 647 levels
  ..$ : chr "enum" : Factor w/ 715 levels
  ..$ : chr "enum" : Factor w/ 679 levels
  ..$ : chr "enum" : Factor w/ 477 levels
  ..$ : chr "enum" : Factor w/ 645 levels
  ..$ : chr "enum" : Factor w/ 719 levels
  ..$ : chr "enum" : Factor w/ 678 levels
  ..$ : chr "enum" : Factor w/ 478 levels

以上结果在 v3.10.2.1(较小模型写入磁盘:169M)和 v3.10.5.1(较大模型写入磁盘:37G)之间完全相同。

实际GBM训练使用nbins <- 37 :

numCats <- n_distinct(as.matrix(dplyr::select_(df.train,response)))
numCats
[1] 37

iret <- h2o.gbm(x = predictors, y = response, training_frame = train.hex,
          validation_frame = holdout.hex, distribution="multinomial",
          ntrees = 3000, learn_rate = 0.01, max_depth = 5, nbins = numCats,
          model_id = basename_model)

最佳答案

模型大小的差异(169M 与 37G)令人惊讶。您能否确保 H2O 将所有数字列识别为数字列而不是具有非常高基数的分类列?

您是使用自动检测列类型还是手动指定?

关于r - H2O:无法通过 `h2o.loadModel` 从磁盘读取大型模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44738743/

相关文章:

r - 在 GGplot 中显示位于同一点的点的密度

java - 在没有 maven-compiler-plugin 的情况下使用 Java 1.7

h2o - MOJO zip 文件和 genmodel.jar 文件有什么区别。

r - ifelse : Value in multiple columns/variables 中的条件

r - Stargazer 输出出现在文本下方 - rmarkdown to pdf

linux - -fprofile-arcs 链接器选项是什么意思?

node.js - 安装 npm node-sass

r - H2O深度学习R

python-3.x - h2o 与 scikit 学习混淆矩阵

在数据框中重复应用 ave 计算组均值