Python 以TF-CNN为例的感受野算法
下面是tensorflow提供的代码。我将描述我目前对感受野大小变化的理解,如果有人能让我知道我的误解在哪里,我将不胜感激 概述: [28,28]->32[24,24]->32[12,12]->2048[8,8] 长版本:Python 以TF-CNN为例的感受野算法,python,tensorflow,neural-network,conv-neural-network,recurrent-neural-network,Python,Tensorflow,Neural Network,Conv Neural Network,Recurrent Neural Network,下面是tensorflow提供的代码。我将描述我目前对感受野大小变化的理解,如果有人能让我知道我的误解在哪里,我将不胜感激 概述: [28,28]->32[24,24]->32[12,12]->2048[8,8] 长版本: 从[28,28]数组开始 第一个卷积层有32个滤波器,内核大小为[5,5],因此输出为32[24,24]s 内核为[2,2]且步长为2的池层保持了数组的数量,但减小了大小,因此输出为32[12,12]秒 下一个卷积层有64个大小为[5,5]的滤波器,因此我们最终得到2048
- 从[28,28]数组开始
- 第一个卷积层有32个滤波器,内核大小为[5,5],因此输出为32[24,24]s
- 内核为[2,2]且步长为2的池层保持了数组的数量,但减小了大小,因此输出为32[12,12]秒
- 下一个卷积层有64个大小为[5,5]的滤波器,因此我们最终得到2048[8,8]s
# Input Layer
input_layer = tf.reshape(features["x"], [-1, 28, 28, 1])
# Convolutional Layer #1
conv1 = tf.layers.conv2d(
inputs=input_layer,
filters=32,
kernel_size=[5, 5],
padding="same",
activation=tf.nn.relu)
# Pooling Layer #1
pool1 = tf.layers.max_pooling2d(inputs=conv1, pool_size=[2, 2], strides=2)
# Convolutional Layer #2 and Pooling Layer #2
conv2 = tf.layers.conv2d(
inputs=pool1,
filters=64,
kernel_size=[5, 5],
padding="same",
activation=tf.nn.relu)
pool2 = tf.layers.max_pooling2d(inputs=conv2, pool_size=[2, 2], strides=2)
# Dense Layer
pool2_flat = tf.reshape(pool2, [-1, 7 * 7 * 64])
dense = tf.layers.dense(inputs=pool2_flat, units=1024, activation=tf.nn.relu)
dropout = tf.layers.dropout(
inputs=dense, rate=0.4, training=mode == tf.estimator.ModeKeys.TRAIN)
conv2d层使用的是
padding=“same”
,这意味着输入用零填充,以便输出的大小相同。为了得到您期望的结果,我们将使用padding=“valid”
,这意味着没有填充