Python 为什么MXnet中的卷积函数有一个核参数
我是mxnet的新手,在官方文档中,卷积层的生成可能是Python 为什么MXnet中的卷积函数有一个核参数,python,mxnet,Python,Mxnet,我是mxnet的新手,在官方文档中,卷积层的生成可能是 conv = nd.Convolution(data=data, weight=W, bias=b, kernel=(3,3), num_filter=10) 但要求权重参数需要采用4-D张量 W = [weight_num, stride, kernel_height, kernel_width] 那么为什么我们仍然需要在卷积函数中设置内核参数呢?内核参数设置内核大小,它可以是: (宽度,)-用于1D卷积 (高度、宽度)-用于二维卷
conv = nd.Convolution(data=data, weight=W, bias=b, kernel=(3,3), num_filter=10)
但要求权重
参数需要采用4-D张量
W = [weight_num, stride, kernel_height, kernel_width]
那么为什么我们仍然需要在
卷积
函数中设置内核
参数呢?内核
参数设置内核大小,它可以是:
- (宽度,)-用于1D卷积
- (高度、宽度)-用于二维卷积
- (深度、高度、宽度)-用于三维卷积
权重
和偏差
参数包含要训练的实际参数。实际值将在这里
虽然您可能可以通过提供的权重
计算出内核
(形状),但更具防御性的做法是要求明确提供内核
形状,而不是根据传递给权重
的参数进行计算
以下是2D卷积的一个示例:
# shape is batch_size x channels x height x width
x = mx.nd.random.uniform(shape=(100, 1, 9, 9))
# kernel is just 3 x 3,
# weight is num_filter x channels x kernel_height x kernel_width
# bias is num_filter
mx.nd.Convolution(data=x,
kernel=(3, 3),
num_filter=5,
weight=mx.nd.random.uniform(shape=(5, 1, 3, 3)),
bias=mx.nd.random.uniform(shape=(5,)))
解释1D、2D或3D卷积情况下各种参数形状的文档非常好: