Deep learning 什么';扩张卷积的用途是什么?
我指的是Deep learning 什么';扩张卷积的用途是什么?,deep-learning,Deep Learning,我指的是 一个2x2内核会有漏洞,这样它就会变成一个3x3内核 一个3x3内核会有洞,这样它就会变成5x5内核 当然,以上假设间隔为1 我可以清楚地看到,这允许您有效地使用4个参数,但接收范围为3x3,9个参数,但接收范围为5x5 扩大卷积的情况是否只是为了节省参数,同时获得更大的感受野的好处,从而节省内存和计算?除了您已经提到的好处,例如更大的感受野,高效计算和较小的内存消耗,扩展的因果卷积还具有以下优点: 它在输出层保留数据的分辨率/维度。这是因为层被扩展而不是池,因此被称为扩展因果卷
- 一个2x2内核会有漏洞,这样它就会变成一个3x3内核
- 一个3x3内核会有洞,这样它就会变成5x5内核
- 当然,以上假设间隔为1
扩大卷积的情况是否只是为了节省参数,同时获得更大的感受野的好处,从而节省内存和计算?除了您已经提到的好处,例如更大的感受野,高效计算和较小的内存消耗,扩展的因果卷积还具有以下优点:
- 它在输出层保留数据的分辨率/维度。这是因为层被扩展而不是池,因此被称为扩展因果卷积
- 它维护数据的顺序。例如,在一维扩展因果卷积中,当输出预测取决于先前的输入时,卷积结构有助于维持数据的顺序李>
- 图(a)是一个1-放大的3x3卷积滤波器。换句话说,它是一个标准的3x3卷积滤波器
- 图(b)是一个2倍放大的3x3卷积滤波器。红点表示权重所在的位置,其他位置均为0。换句话说,它是一个5x5卷积滤波器,有9个非零权重,其他地方为0,如问题中所述。这种情况下的感受野为7x7,因为之前输出中的每个单元的感受野为3x3。蓝色突出显示的部分显示感受野,非卷积滤波器(如果您愿意,您可以将其视为卷积滤波器,但它没有帮助)
- 图(c)是一个4倍放大的3x3卷积滤波器。这是一个9x9卷积滤波器,具有9个非零权重,其他地方为0。从(b)中,我们可以看到每个单元现在都有一个7x7的感受野,因此你可以在每个红点周围看到一个7x7的蓝色部分
- 如果我们使用3层连续的3x3卷积滤波器,步长为1,则有效接收野在其末端仅为7x7。然而,在相同的计算和内存成本下,我们可以通过扩展卷积实现15x15。这两种操作都保持分辨率
- 如果我们使用3层连续的3x3卷积滤波器,以指数速率递增步幅,与本文中的放大卷积速率完全相同,我们将在其末端获得一个15x15的感受野,但随着步幅变大,最终会失去覆盖。这种覆盖范围的丧失意味着,在某一点上的有效感受野将不是我们上面看到的。有些部分不会重叠