Deep learning 非平方卷积核大小

Deep learning 非平方卷积核大小,deep-learning,conv-neural-network,Deep Learning,Conv Neural Network,卷积神经网络通常使用平方大小的核,即(3,3)、(5,5)等 使用非平方内核大小的利弊是什么?意思是(3,7)、(3,9)等。我想不出有什么缺点。这实际上取决于你想要什么以及你的数据是什么 当使用平方大小的内核时,使用该内核将该区域转换为conv输出中的一个点。 因此,使用一个正方形,输出中的每个点都是从输入点的一组加权邻域(与水平邻域数量相同)中获得的 但是,如果使用非正方形的内核大小,比如说3×9的内核大小,则使用水平方向比垂直方向多3倍的值映射每个输入点(反之亦然)。根据数据的性质,这可能

卷积神经网络通常使用平方大小的核,即(3,3)、(5,5)等


使用非平方内核大小的利弊是什么?意思是(3,7)、(3,9)等。我想不出有什么缺点。这实际上取决于你想要什么以及你的数据是什么

当使用平方大小的内核时,使用该内核将该区域转换为conv输出中的一个点。 因此,使用一个正方形,输出中的每个点都是从输入点的一组加权邻域(与水平邻域数量相同)中获得的

但是,如果使用非正方形的内核大小,比如说3×9的内核大小,则使用水平方向比垂直方向多3倍的值映射每个输入点(反之亦然)。根据数据的性质,这可能会简化您的培训过程并提高准确性。(例如,如果您试图检测非常大的细鳄鱼)。
毕竟,这些都是我的观点,不是100%的科学事实。

您可以使用任意大小的内核。内核不一定是正方形的,特别是当您希望更加关注沿着特定方向的进程时。事实上,沿图像中特定轴的移动平均是一个矩形形状的简单过滤器。

平方大小内核背后的原因是,您通常不知道学习的特征将具有什么方向。所以你不想限制网络。过滤器的最佳形状是一个圆,因此它可以在给定半径的区域内学习任意方向的任何特征。由于这是不可行的,因为执行问题的一个正方形,它的下一个最佳形状

例如,如果您知道所有学习到的特性的比率为1x3(高x宽),那么您可以使用2x6这样的内核大小。但你就是不知道。即使你说你想要检测/分类的对象看起来像这样,它也不会转化为网络将学会识别它的特征。 整体优势在于,您可以让网络了解这些功能,在我看来,您应该尽可能少地限制这些功能

但我不想让你泄气。深入学习需要大量的实验和反复试验。所以你自己试试看吧。也许对于某些问题,它实际上表现得更好,谁知道呢