Keras 分支神经网络中的中断反向传播
我有一个类似这样的神经网络Keras 分支神经网络中的中断反向传播,keras,backpropagation,Keras,Backpropagation,我有一个类似这样的神经网络 input_layer_1 input_layer_2 | | | | some_stuff some_other_stuff | /| | _________________/ | | /
input_layer_1 input_layer_2
| |
| |
some_stuff some_other_stuff
| /|
| _________________/ |
| / |
multiply |
| |
| |
output_1 output_2
在反向传播过程中,是否有可能切断某些其他东西
和乘法
之间的连接?我想退出,但这也适用于正向传播
因此,在反向传播过程中,它应该类似于两个网络:
input_layer_1 input_layer_2
| |
| |
some_stuff some_other_stuff
| |
| |
| |
multiply |
| |
| |
output_1 output_2
输出_1误差仅影响网络左侧的重量调整,输出_2误差仅影响网络右侧的重量调整
我将keras与tensorflow结合使用,因此可能有一些函数/层实现了这一点
谢谢 如果有人想知道,可以在Lambda层中使用K.gradient_stop()