Tensorflow “如何初始化函数”;tf.keras.layers.prelu“;

Tensorflow “如何初始化函数”;tf.keras.layers.prelu“;,tensorflow,keras,Tensorflow,Keras,我读过一些关于激活函数PReLU的文章,参数alpha可以初始化为0.25。如何在函数“tf.keras.layers.prelu”中初始化alpha?有关所有参数,请参阅本官方文档 要使用0.25初始化,请使用 tf.keras.layers.PReLU(alpha_initializer=tf.initializers.constant(0.25)) 乐意帮忙:) tf.keras.layers.PReLU(alpha_initializer=tf.initializers.co

我读过一些关于激活函数PReLU的文章,参数alpha可以初始化为0.25。如何在函数“tf.keras.layers.prelu”中初始化alpha?

有关所有参数,请参阅本官方文档

要使用0.25初始化,请使用

  tf.keras.layers.PReLU(alpha_initializer=tf.initializers.constant(0.25))

乐意帮忙:)
  tf.keras.layers.PReLU(alpha_initializer=tf.initializers.constant(0.25))