Keras 分支神经网络中的中断反向传播

Keras 分支神经网络中的中断反向传播,keras,backpropagation,Keras,Backpropagation,我有一个类似这样的神经网络 input_layer_1 input_layer_2 | | | | some_stuff some_other_stuff | /| | _________________/ | | /

我有一个类似这样的神经网络

input_layer_1            input_layer_2
      |                        |
      |                        |
  some_stuff           some_other_stuff
      |                       /|
      |     _________________/ |
      |    /                   |
   multiply                    |
      |                        |
      |                        |
   output_1                 output_2
在反向传播过程中,是否有可能切断
某些其他东西
乘法
之间的连接?我想退出,但这也适用于正向传播

因此,在反向传播过程中,它应该类似于两个网络:

 input_layer_1            input_layer_2
      |                        |
      |                        |
  some_stuff           some_other_stuff
      |                        |
      |                        |
      |                        |
   multiply                    |
      |                        |
      |                        |
   output_1                 output_2
输出_1误差仅影响网络左侧的重量调整,输出_2误差仅影响网络右侧的重量调整

我将keras与tensorflow结合使用,因此可能有一些函数/层实现了这一点


谢谢

如果有人想知道,可以在Lambda层中使用K.gradient_stop()