是否可以训练一个层';Keras中的s权重而非其偏差(或反之亦然)?

是否可以训练一个层';Keras中的s权重而非其偏差(或反之亦然)?,keras,Keras,我从中了解到,可以通过以下方式将整个层设置为不可训练: weights_and_bias = [weight_matrix, bias_vector] frozen_layer = Dense(32, weights=weights_and_bias, trainable=False) 但这将使权重和偏差都无法训练。我想让其中一个可以训练,但另一个不能训练 有什么简单的方法可以做到这一点吗?我认为这是不可能的。但是,将其分为两个层应该很容易:使用一个没有偏差的密集层(densite(Use_b

我从中了解到,可以通过以下方式将整个层设置为不可训练:

weights_and_bias = [weight_matrix, bias_vector]
frozen_layer = Dense(32, weights=weights_and_bias, trainable=False)
但这将使权重和偏差都无法训练。我想让其中一个可以训练,但另一个不能训练


有什么简单的方法可以做到这一点吗?

我认为这是不可能的。但是,将其分为两个层应该很容易:使用一个没有偏差的密集层(
densite(Use_bias=False)
),和一个只添加偏差的自定义层,这可能会有所帮助:啊,是的,我有一个模糊的想法,类似这样的事情应该是可能的。因此,基本上一层会有权重,但不会有偏差,然后下一层会有偏差,但权重矩阵只是恒等矩阵?请注意,偏差也被称为“权重”。第一层只有乘法内核,但没有偏差(如您所说),但第二层根本没有乘法内核,只有偏差权重。我还没有在我链接到的答案中尝试自定义层,但它看起来确实如此。谢谢,我明天会试一试。谢谢你的指点,忘了更新了。这管用!谢谢@jlhI,我不认为这是可能的。但是,将其分为两个层应该很容易:使用一个没有偏差的密集层(
densite(Use_bias=False)
),和一个只添加偏差的自定义层,这可能会有所帮助:啊,是的,我有一个模糊的想法,类似这样的事情应该是可能的。因此,基本上一层会有权重,但不会有偏差,然后下一层会有偏差,但权重矩阵只是恒等矩阵?请注意,偏差也被称为“权重”。第一层只有乘法内核,但没有偏差(如您所说),但第二层根本没有乘法内核,只有偏差权重。我还没有在我链接到的答案中尝试自定义层,但它看起来确实如此。谢谢,我明天会试一试。谢谢你的指点,忘了更新了。这管用!谢谢@jlh