Keras α=1的泄漏Relu是线性激活函数吗?

Keras α=1的泄漏Relu是线性激活函数吗?,keras,deep-learning,activation-function,Keras,Deep Learning,Activation Function,如果我设置alpha=1,那么我只需向下扩展正常的Relu函数。该函数是否应视为线性激活函数?是的,alpha等于1的泄漏ReLU实际上是线性激活函数。欢迎您!如果帖子回答了你的问题。请把它标为已回答。

如果我设置alpha=1,那么我只需向下扩展正常的Relu函数。该函数是否应视为线性激活函数?

是的,alpha等于1的泄漏ReLU实际上是线性激活函数。

欢迎您!如果帖子回答了你的问题。请把它标为已回答。