Python 卷积神经网络中展平()层和稠密()层的区别是什么?

Python 卷积神经网络中展平()层和稠密()层的区别是什么?,python,machine-learning,neural-network,deep-learning,conv-neural-network,Python,Machine Learning,Neural Network,Deep Learning,Conv Neural Network,我对他们有严重的怀疑。任何人都可以用例子和一些想法来详细说明。顾名思义,展平,将多维矩阵(Batch.Size x Img.W x Img.H x Kernel.Size)转换为一个漂亮的二维矩阵:(Batch.Size x(Img.W x Img.H x Kernel.Size))。在反向传播期间,它还会将大小增量(Batch.size x(Img.W x Img.hx Kernel.size))转换回原始值(Batch.size x Img.W x Img.hx Kernel.size) 密

我对他们有严重的怀疑。任何人都可以用例子和一些想法来详细说明。

顾名思义,展平,将多维矩阵(Batch.Size x Img.W x Img.H x Kernel.Size)转换为一个漂亮的二维矩阵:(Batch.Size x(Img.W x Img.H x Kernel.Size))。在反向传播期间,它还会将大小增量(Batch.size x(Img.W x Img.hx Kernel.size))转换回原始值(Batch.size x Img.W x Img.hx Kernel.size)


密集层当然是标准的完全连接层。

顾名思义,扁平化将多维矩阵(Batch.Size x Img.W x Img.H x Kernel.Size)转换为一个漂亮的二维矩阵:(Batch.Size x(Img.W x Img.H x Kernel.Size))。在反向传播期间,它还会将大小增量(Batch.size x(Img.W x Img.hx Kernel.size))转换回原始值(Batch.size x Img.W x Img.hx Kernel.size)


致密层当然是标准的全连接层