Tensorflow 替换Keras中MobileNet应用程序中的跨步层

Tensorflow 替换Keras中MobileNet应用程序中的跨步层,tensorflow,machine-learning,keras,deep-learning,mobilenet,Tensorflow,Machine Learning,Keras,Deep Learning,Mobilenet,我想在KerasMobileNetV2中应用大小为39 x 39的图像来分类3类。我的图像表示热图(例如,键盘上按下了哪些键)。我认为MobileNet设计用于处理大小为224x224的图像。我不会使用迁移学习,而是从头开始训练模型 为了使MobileNet能够处理我的图像,我想用stride1替换前三个stride2卷积。我有以下代码: from tensorflow.keras.applications import MobileNetV2 base_model = MobileNetV2

我想在
Keras
MobileNetV2
中应用大小为
39 x 39
的图像来分类
3类。我的图像表示热图(例如,键盘上按下了哪些键)。我认为
MobileNet
设计用于处理大小为
224x224
的图像。我不会使用迁移学习,而是从头开始训练模型

为了使
MobileNet
能够处理我的图像,我想用stride
1
替换前三个stride
2
卷积。我有以下代码:

from tensorflow.keras.applications import MobileNetV2

base_model = MobileNetV2(weights=None, include_top=False, 
                         input_shape=[39,39,3])
x = base_model.output
x = GlobalAveragePooling2D()(x)
x = Dropout(0.5)(x)
output_tensor = Dense(3, activation='softmax')(x)
cnn_model = Model(inputs=base_model.input, outputs=output_tensor)

opt = Adam(lr=learning_rate)
cnn_model.compile(loss='categorical_crossentropy', 
             optimizer=opt, metrics=['accuracy', tf.keras.metrics.AUC()])

如果不亲自构建
MobileNet
,我如何用stride
1
替换前三个stride
2
卷积?

这里有一个解决方案,可以满足您的需要,但我想可能有一个更通用的方法。但是,在
MobileNetV2
中,只有一个
conv
层具有
跨步2
。如果你遵循源代码

其余的块定义如下

  x = _inverted_res_block(
      x, filters=16, alpha=alpha, stride=1, expansion=1, block_id=0)
  x = _inverted_res_block(
      x, filters=24, alpha=alpha, stride=2, expansion=6, block_id=1)
  x = _inverted_res_block(
      x, filters=24, alpha=alpha, stride=1, expansion=6, block_id=2)
因此,这里我将首先用
stride=(2,2)
处理conv
。想法很简单,我们将在内置模型的正确位置添加一个新层,然后删除所需层

def _make_divisible(v, divisor, min_value=None):
    if min_value is None:
        min_value = divisor
    new_v = max(min_value, int(v + divisor / 2) // divisor * divisor)
    # Make sure that round down does not go down by more than 10%.
    if new_v < 0.9 * v:
        new_v += divisor
    return new_v
alpha = 1.0
first_block_filters = _make_divisible(32 * alpha, 8)

inputLayer = tf.keras.Input(shape=(39, 39, 3), name="inputLayer")
inputcOonv = tf.keras.layers.Conv2D(
                first_block_filters,
                kernel_size=3,
                strides=(1, 1),
                padding='same',
                use_bias=False,
                name='Conv1_'
        )(inputLayer)
现在,如果我们观察

for i, l in enumerate(cnn_model.layers):
    print(l.name, l.output_shape)
    if i == 8: break

inputLayer [(None, 39, 39, 3)]
Conv1_ (None, 39, 39, 32)
Conv1 (None, 20, 20, 32)
bn_Conv1 (None, 20, 20, 32)
Conv1_relu (None, 20, 20, 32)
expanded_conv_depthwise (None, 20, 20, 32)
expanded_conv_depthwise_BN (None, 20, 20, 32)
expanded_conv_depthwise_relu (None, 20, 20, 32)
expanded_conv_project (None, 20, 20, 16)
图层名称
Conv1
Conv1
分别是新图层(带有
strips=1
)和旧图层(带有
strips=2
)。根据我们的需要,现在我们将层
Conv1
移除为
strips=2
,如下所示:

base_model = tf.keras.applications.MobileNetV2(weights=None, 
                            include_top=False, 
                            input_tensor = inputcOonv)
x = base_model.output
x = GlobalAveragePooling2D()(x)
x = Dropout(0.5)(x)
output_tensor = Dense(3, activation='softmax')(x)
cnn_model = Model(inputs=base_model.input, outputs=output_tensor)
cnn_model._layers.pop(2) # remove Conv1

for i, l in enumerate(cnn_model.layers):
    print(l.name, l.output_shape)
    if i == 8: break

inputLayer [(None, 39, 39, 3)]
Conv1_ (None, 39, 39, 32)
bn_Conv1 (None, 20, 20, 32)
Conv1_relu (None, 20, 20, 32)
expanded_conv_depthwise (None, 20, 20, 32)
expanded_conv_depthwise_BN (None, 20, 20, 32)
expanded_conv_depthwise_relu (None, 20, 20, 32)
expanded_conv_project (None, 20, 20, 16)
expanded_conv_project_BN (None, 20, 20, 16)


现在,在第一个
conv
层上有了
cnn\u model
model和
strips=1
。不过,如果您对这种方法和可能的问题感到疑惑,请参阅我的另一个与此相关的答案

为什么不调整图像大小?@SoheilStar调整图像大小时,效率较低(图像较大,因此运行时和内存消耗会增加)。非常感谢您的回答。我看到五大步2。有四个带步长2的反向分辨率块,请参见
x=\u反向分辨率块(x,过滤器=24,alpha=alpha,步长=2,扩展=6,块id=1)
。我怎样才能将它们更改为步幅1呢?那么,对于所有情况,您都希望将
stride=2改为1
?上述解决方法更像是一个图层空间解决方案(修改图层),而不是一个超参数空间(跨步、填充等)。好吧,如果不披露足够多的预先训练过的模型,就没有可行的方法可以做到这一点。因此,我只建议您获取相关的源代码,并根据需要进行修改。
cnn_model._layers.pop(2) # remove Conv1

for i, l in enumerate(cnn_model.layers):
    print(l.name, l.output_shape)
    if i == 8: break

inputLayer [(None, 39, 39, 3)]
Conv1_ (None, 39, 39, 32)
bn_Conv1 (None, 20, 20, 32)
Conv1_relu (None, 20, 20, 32)
expanded_conv_depthwise (None, 20, 20, 32)
expanded_conv_depthwise_BN (None, 20, 20, 32)
expanded_conv_depthwise_relu (None, 20, 20, 32)
expanded_conv_project (None, 20, 20, 16)
expanded_conv_project_BN (None, 20, 20, 16)