Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/objective-c/26.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Neural network 在2个神经网络组合中使用反向传播进行权重更新_Neural Network_Deep Learning_Backpropagation - Fatal编程技术网

Neural network 在2个神经网络组合中使用反向传播进行权重更新

Neural network 在2个神经网络组合中使用反向传播进行权重更新,neural-network,deep-learning,backpropagation,Neural Network,Deep Learning,Backpropagation,每个神经网络通过反向传播更新其权重。 假设一个神经网络模型叠加在另一个神经网络模型上,在这种体系结构中如何使用反向传播进行权重更新。加权更新与单一神经网络模型有什么不同?CNN、GAN或任何其他神经网络拓扑仍然由基本单元、网络层组成。“CNN”指一大类拓扑结构;“GNN”是另一个广泛的类别 反向传播的工作方式与通常相同:每个层的权重变化将传播到前一层,除以该权重的梯度。这是拓扑中相邻(直接连接)层之间的操作。无论这两个层是在我们聚集为“CNN”的子图中,还是在两个不同子图中的相邻层,都无关紧要—

每个神经网络通过反向传播更新其权重。
假设一个神经网络模型叠加在另一个神经网络模型上,在这种体系结构中如何使用反向传播进行权重更新。加权更新与单一神经网络模型有什么不同?

CNN、GAN或任何其他神经网络拓扑仍然由基本单元、网络层组成。“CNN”指一大类拓扑结构;“GNN”是另一个广泛的类别


反向传播的工作方式与通常相同:每个层的权重变化将传播到前一层,除以该权重的梯度。这是拓扑中相邻(直接连接)层之间的操作。无论这两个层是在我们聚集为“CNN”的子图中,还是在两个不同子图中的相邻层,都无关紧要——这是一个简单的逐层更新。

NNs中有许多隐藏层;你所指的“隐藏层”是什么?你的叠加不清楚:“每个神经网络都是相互叠加的。”我不熟悉这种拓扑结构。例如,CNN-LSTM模型是叠加在LSTM模型之上的CNN模型,但LSTM也不叠加在CNN之上。你能解释一下吗?每个神经网络都有自己的隐藏层。当美国有线电视新闻网模型被堆叠在LSTM模型的顶部时,我们会考虑模型或隐层外模型(LSTM)的隐藏层吗?是的,你对在LSTM模型上堆积的美国有线电视新闻网模型是正确的。每个模型都有多个隐藏层。它们都在反向传播过程中得到更新。