Keras 解释巴甘语结构的困难';s while语句

Keras 解释巴甘语结构的困难';s while语句,keras,while-loop,vision,generative-adversarial-network,Keras,While Loop,Vision,Generative Adversarial Network,这是巴甘密码的一部分。我不知道我是否对Keras不熟悉,或者我对深度学习知之甚少,但我很难理解上面的结构 当min_潜伏期_res小于输出通道(=output_shape[-1])并通过while语句时,是否有可能通过while语句中的卷积逃逸循环?频道的数量不是保持在256个吗 如果上述解释是正确的,为什么存在while语句 提前谢谢 cnn.add(Conv2D(256, (3, 3), padding='same', strides=(1, 1), use_bias=True)) cnn.

这是巴甘密码的一部分。我不知道我是否对Keras不熟悉,或者我对深度学习知之甚少,但我很难理解上面的结构

当min_潜伏期_res小于输出通道(=output_shape[-1])并通过while语句时,是否有可能通过while语句中的卷积逃逸循环?频道的数量不是保持在256个吗

如果上述解释是正确的,为什么存在while语句

提前谢谢

cnn.add(Conv2D(256, (3, 3), padding='same', strides=(1, 1), use_bias=True))
cnn.add(LeakyReLU())
cnn.add(Dropout(0.3))

while cnn.output_shape[-1] > min_latent_res:
    cnn.add(Conv2D(256, (3, 3), padding='same', strides=(2, 2), use_bias=True))
    cnn.add(LeakyReLU())
    cnn.add(Dropout(0.3))

    cnn.add(Conv2D(256, (3, 3), padding='same', strides=(1, 1), use_bias=True))
    cnn.add(LeakyReLU())
    cnn.add(Dropout(0.3))

cnn.add(Flatten())