Tensorflow 在总结了我的模型之后,输入形状中没有一个
我有这个模型:Tensorflow 在总结了我的模型之后,输入形状中没有一个,tensorflow,keras,Tensorflow,Keras,我有这个模型: model = tf.keras.models.Sequential([ tf.keras.layers.Conv2D(64, (3, 3), padding='same', input_shape=(96, 96, 1), kernel_regularizer = tf.keras.regularizers.l2(0.01)),
model = tf.keras.models.Sequential([
tf.keras.layers.Conv2D(64, (3, 3), padding='same',
input_shape=(96, 96, 1),
kernel_regularizer = tf.keras.regularizers.l2(0.01)),
tf.keras.layers.BatchNormalization(),
tf.keras.layers.PReLU(alpha_initializer='zeros'),
tf.keras.layers.MaxPooling2D((2, 2)),
tf.keras.layers.Conv2D(128, (5, 5), padding='same'),
tf.keras.layers.BatchNormalization(),
tf.keras.layers.PReLU(alpha_initializer='zeros'),
tf.keras.layers.MaxPooling2D((2, 2)),
tf.keras.layers.Conv2D(512, (3, 3), padding='same'),
tf.keras.layers.BatchNormalization(),
tf.keras.layers.PReLU(alpha_initializer='zeros'),
tf.keras.layers.MaxPooling2D((2, 2)),
tf.keras.layers.Conv2D(512, (3, 3), padding='same'),
tf.keras.layers.BatchNormalization(),
tf.keras.layers.PReLU(alpha_initializer='zeros'),
tf.keras.layers.MaxPooling2D((2, 2)),
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(1024),
tf.keras.layers.BatchNormalization(),
tf.keras.layers.PReLU(alpha_initializer='zeros'),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(1024),
tf.keras.layers.BatchNormalization(),
tf.keras.layers.PReLU(alpha_initializer='zeros'),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(7, activation='softmax')
])
model.compile(optimizer=tf.keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-7),
loss="categorical_crossentropy",
metrics =['accuracy'])
模型运行良好,训练良好,但当我尝试预测时,我得到了一个奇怪的形状,如下图所示
为什么我没有,我的形状是(96,96,1),如何修复它?没有什么要修复的,批处理维度中的
none
意味着这个维度的大小是可变的。这是有意义的,因为模型可以使用任何批量进行训练。好的,谢谢,这并没有解决我的问题,但至少我知道这不是问题