Python Keras中的随机ReLU

Python Keras中的随机ReLU,python,keras,deep-learning,activation-function,Python,Keras,Deep Learning,Activation Function,结果表明,在CIFAR-10、CIFAR-100和NDSB数据集中,随机化ReLU以及参数化ReLU的性能优于ReLU。虽然Keras提供了关于如何使用PReLU的文档,但我无法为RReLU找到一个。有人能简要介绍一下随机ReLU激活在Keras中的应用吗 以下是论文arXiv:1505.00853v2中对RReLU的描述 您能把RReLU的公式包括在内吗?我已经添加了@rvinas看看这个repo,我们已经尝试了笔记本中给出的语法,即activation='randomized-relu'。但

结果表明,在CIFAR-10、CIFAR-100和NDSB数据集中,随机化ReLU以及参数化ReLU的性能优于ReLU。虽然Keras提供了关于如何使用PReLU的文档,但我无法为RReLU找到一个。有人能简要介绍一下随机ReLU激活在Keras中的应用吗

以下是论文arXiv:1505.00853v2中对RReLU的描述


您能把RReLU的公式包括在内吗?我已经添加了@rvinas看看这个repo,我们已经尝试了笔记本中给出的语法,即activation='randomized-relu'。但是它抛出了一个错误,称为未知激活函数。你能包含RReLU的公式吗?我已经添加了它@rvinas看看这个repo,我们已经尝试了笔记本中给出的语法,即activation='randomized-relu'。但它抛出了一个错误,表示激活函数未知。