Tensorflow Keras问题下的反褶积

Tensorflow Keras问题下的反褶积,tensorflow,neural-network,deep-learning,keras,Tensorflow,Neural Network,Deep Learning,Keras,我试着使用keras的反褶积2D和Tensorflow后端 但我有一些问题。 首先,在输出_形状中,如果批处理_大小不传递任何值,则会出现以下错误: TypeError: Expected binary or unicode string, got None 如果我使用的批大小没有更改任何值,则错误如下: InvalidArgumentError (see above for traceback): Conv2DCustomBackpropInput: input and out_backpr

我试着使用keras的反褶积2D和Tensorflow后端

但我有一些问题。 首先,在输出_形状中,如果批处理_大小不传递任何值,则会出现以下错误:

TypeError: Expected binary or unicode string, got None
如果我使用的批大小没有更改任何值,则错误如下:

InvalidArgumentError (see above for traceback): Conv2DCustomBackpropInput: input and out_backprop must have the same batch size
 [[Node: conv2d_transpose = Conv2DBackpropInput[T=DT_FLOAT, data_format="NHWC", padding="VALID", strides=[1, 2, 2, 1], use_cudnn_on_gpu=true, _device="/job:localhost/replica:0/task:0/cpu:0"](conv2d_transpose/output_shape, transpose, Reshape_4)]]
以下是我使用的模型:

model = Sequential()

reg = lambda: l1l2(l1=1e-7, l2=1e-7)
h = 5
model.add(Dense(input_dim=100, output_dim=nch * 4 * 4, W_regularizer=reg()))
model.add(BatchNormalization(mode=0))
model.add(Reshape((4, 4, nch)))
model.add(Deconvolution2D(256, h,h, output_shape=(128,8,8,256 ), subsample=(2,2), border_mode='same'))
model.add(BatchNormalization(mode=0, axis=1))
model.add(LeakyReLU(0.2))
model.add(Deconvolution2D(256, h,h, output_shape=(128,16,16,256 ), subsample=(2,2), border_mode='same'))
model.add(BatchNormalization(mode=0, axis=1))
model.add(LeakyReLU(0.2))
model.add(Deconvolution2D(64, h,h, output_shape=(128,32,32,64), subsample=(2,2), border_mode='same'))
model.add(BatchNormalization(mode=0, axis=1))
model.add(LeakyReLU(0.2))
model.add(Convolution2D(3, h, h, border_mode='same', W_regularizer=reg()))
model.add(Activation('sigmoid'))
model.summary()

在以前版本的Keras中,这是一个令人烦恼的反褶积,总是必须给出固定的批量大小并手动计算输出形状。这也意味着您的数据集大小必须可以被“batch_size”整除,否则会在最后一个(较小的)批上引发错误

幸运的是,这在Keras2.0中得到了修复。反褶积2D已被Conv2DTranspose取代,您甚至不必再将output_shape作为参数:

    model.add(Conv2DTranspose(filters=256, kernel_size=(h,h), strides=(2,2), padding='same'))

为什么要将批处理大小设置为无?@MarcinMożejko:因为在Keras中,无表示可变的批处理大小。(如Tensorflow中的-1)