Deep learning 使用GPU在H2O深水上嵌入Word2Vec字

Deep learning 使用GPU在H2O深水上嵌入Word2Vec字,deep-learning,word2vec,h2o,grid-search,gbm,Deep Learning,Word2vec,H2o,Grid Search,Gbm,我们遵循文本分类过程,迭代以下项目: 使用文本文档创建Word2Vec word嵌入模型 执行网格搜索和树深度参数 选择性能最佳的最终GBM模型 当我们遍历列表时,CPU核心以100%的负载工作。是否有任何程序或解决方案使用H2O深水GPU功能重复上述过程?否,否,可能 可能的原因是,您可以从GBM切换到xgboost,xgboost确实有一个GPU选项(我相信只支持单个节点,而且目前只支持Linux)。xgboost显然在小数据集上稍快一些,而h2o.gbm在大数据集上稍快一些。如果您有一个免

我们遵循文本分类过程,迭代以下项目:

  • 使用文本文档创建Word2Vec word嵌入模型
  • 执行网格搜索和树深度参数
  • 选择性能最佳的最终GBM模型
  • 当我们遍历列表时,CPU核心以100%的负载工作。是否有任何程序或解决方案使用H2O深水GPU功能重复上述过程?

    否,否,可能

    可能的原因是,您可以从GBM切换到xgboost,xgboost确实有一个GPU选项(我相信只支持单个节点,而且目前只支持Linux)。xgboost显然在小数据集上稍快一些,而h2o.gbm在大数据集上稍快一些。如果您有一个免费的GPU,并且正在使用最新版本的H2O,那么您可以轻松地将
    H2O.gbm
    H2O.xgboost
    H2OXGBoostEstimator
    如果使用Python API)进行交换,并亲自查看

    我很想听听相关的时间安排


    (顺便说一句,第二个“否”是专门用于网格的GPU;但所有的工作都在模型中,而不是网格本身,因此第二个“否”也可以是“不适用”)

    当我们使用H2OXGBoostEstimator而不是GBM时,它似乎有更好的性能,但实现会受到网格搜索完成的影响。()