Machine learning 深度学习中的堆叠与非堆叠架构

Machine learning 深度学习中的堆叠与非堆叠架构,machine-learning,keras,deep-learning,keras-layer,tf.keras,Machine Learning,Keras,Deep Learning,Keras Layer,Tf.keras,在整个Keras或深度学习中,堆叠架构和非堆叠架构之间的区别是什么?有人能简单说明非堆叠架构吗 有相当多的示例和教程显示了如何在keras中堆叠层,但实际上没有关于堆叠的相反内容 根据定义,深层神经网络是神经网络的堆栈,通常称为层。你可以把它看作是一系列的操作;流程图。例如,在目标检测网络中,一系列称为特征金字塔的卷积层用于从图像中提取区域特征。但是,与流程图一样,您可以创建分支,并按照自己的喜好移动数据。考虑下面的代码片段: 只是一堆 input_layer = InputLayer(inpu

在整个Keras或深度学习中,堆叠架构和非堆叠架构之间的区别是什么?有人能简单说明非堆叠架构吗


有相当多的示例和教程显示了如何在keras中堆叠层,但实际上没有关于堆叠的相反内容

根据定义,深层神经网络是神经网络的堆栈,通常称为层。你可以把它看作是一系列的操作;流程图。例如,在目标检测网络中,一系列称为特征金字塔的卷积层用于从图像中提取区域特征。但是,与流程图一样,您可以创建分支,并按照自己的喜好移动数据。考虑下面的代码片段:

只是一堆

input_layer = InputLayer(input_shape=(256,256,3))
x = Dense(666)(input_layer)
x = Dense(666)(x)
output_layer = Dense(1, activation='softmax')(x)
更有趣的事

input_layer = Inputlayer(input_shape=(256,256,3))
x = Dense(666)(input_layer)

x_left = Dense(666)(x) # gets inputs from x
x_left = Dense(666)(x_left)

x_right = Dense(666)(x)
x_right = Dense(666)(x_right)

x = concatenate([x_left,x_right],axis=-1)

x = Dense(666)(x)
output_layer = Dense(1,activation='softmax')(x)
这回答了你的问题吗

此外,这个图形可能会有所帮助;这是我在谷歌上发现的金字塔网络布局的一个基本特征,它很好地描述了: