Deep learning 是否有计划在H2O中实施泄漏的ReLU?

Deep learning 是否有计划在H2O中实施泄漏的ReLU?,deep-learning,h2o,activation-function,Deep Learning,H2o,Activation Function,是否有计划在H2O的深度学习模块中实施泄漏的ReLU?我是神经网络的初学者,但在有限的建模和参数调整中,我发现ReLUs可以更好地推广,我想知道使用泄漏的ReLU是否可以获得更好的性能,以避免即将消亡的ReLU问题。这不是对您问题的直接回答,因为产品路线图并不是我们真正可以评论的东西。然而,如果您担心H2O中的濒死ReLU问题,为什么不使用ExpRectifier,它代表指数线性单位RLU,它不会遇到濒死ReLU问题。事实上,这证明了ELU优于所有ReLU变体。唯一的缺点是它的计算量更大,因为它

是否有计划在H2O的深度学习模块中实施泄漏的ReLU?我是神经网络的初学者,但在有限的建模和参数调整中,我发现ReLUs可以更好地推广,我想知道使用泄漏的ReLU是否可以获得更好的性能,以避免即将消亡的ReLU问题。

这不是对您问题的直接回答,因为产品路线图并不是我们真正可以评论的东西。然而,如果您担心H2O中的濒死ReLU问题,为什么不使用ExpRectifier,它代表指数线性单位RLU,它不会遇到濒死ReLU问题。事实上,这证明了ELU优于所有ReLU变体。唯一的缺点是它的计算量更大,因为它在计算中涉及指数

这不是编码问题,也不属于堆栈溢出。如果您对H2O路线图有任何疑问,您可以发送电子邮件感谢您指出google组感谢您提供有关使用Exp整流器的指针。在Flow UI中,我看不到Exp整流器的选项。我只看到Linear、Tanh和MaxOut,以及他们的辍学对手。我使用的是通过R安装的3.14.0.2版。