Python 如何可视化层间卷积的权重?

Python 如何可视化层间卷积的权重?,python,deep-learning,keras,Python,Deep Learning,Keras,我有一个小的深度学习问题。在这里,我与Keras书店建立了我的网络(CNN)。我对想象我的CNN的重量感兴趣。我的架构是AlexNet类型,我的彩色图像(RGB)分为72个类。对于第一个卷积,它有96个滤波器,其滤波器内核是11乘11,我在输出[11][11][3][96]处恢复了一个四维张量。所以每个过滤器有3个矩阵11乘11,我们称之为内核 在这个级别,为了可视化我的体重,我拍摄了一张图像,并将其分为3个通道。对于给定的滤波器,每个通道都与内核进行卷积。这些卷积运算的每一个结果都被收集起来,

我有一个小的深度学习问题。在这里,我与Keras书店建立了我的网络(CNN)。我对想象我的CNN的重量感兴趣。我的架构是AlexNet类型,我的彩色图像(RGB)分为72个类。对于第一个卷积,它有96个滤波器,其滤波器内核是11乘11,我在输出[11][11][3][96]处恢复了一个四维张量。所以每个过滤器有3个矩阵11乘11,我们称之为内核

在这个级别,为了可视化我的体重,我拍摄了一张图像,并将其分为3个通道。对于给定的滤波器,每个通道都与内核进行卷积。这些卷积运算的每一个结果都被收集起来,得到一个结果图像

现在,第二个卷积取第一个卷积的输入和输出,设置了383个过滤器,其过滤器内核是5*5。第二次卷积的输出给了我一个大小为[5][5][96][383]的张量4d。这意味着对于一个给定的过滤器,它有96个过滤器(至少我是这么理解的)。所以对于一个给定的滤镜,我仍然用这3个通道上的著名图像分割,面对96个滤镜

我不知道这是否是理解的问题,但我阻塞了total,因为在第二次卷积的输出上,我不知道每个滤波器的96个内核

我想从我的权重重建一个卷积层的过滤器

我真的是深度学习的新手,这是一门有趣的科学,但对我来说充满了神秘。如果有人能善意地启发我,我会感谢他。

在这篇论文中,Zeiler和Fergus讨论了这样一个观点,即对CNN重新产生兴趣是因为大型训练集的可访问性以及GPU的使用提高了计算能力。他们发现并讨论了可视化特征地图和权重的有趣方法。这是在深度学习领域最好和流行的论文之一。作者还强调,研究人员对这些模型的内部机制了解有限

说没有这种洞察力,“开发更好的模型 简化为反复试验“


他们在论文中也使用了类似AlexNet的模型。这个名为ZFNET的模型是ILSVRC 2013的获胜者。我相信,通过阅读本文,您将更好地了解整个DL概念以及您的问题的可能解决方案。

谢谢,但我已经阅读了这篇文章和其他几十篇文章。它不能回答我的问题。事实上,我有我的人际网络,但在第二次会议期间,我无法理解发生了什么。非常感谢你,我的英语很抱歉