Deep learning 鉴别器如何在DCGAN上工作?

Deep learning 鉴别器如何在DCGAN上工作?,deep-learning,dcgan,Deep Learning,Dcgan,我正在研究DCGAN,我想知道一些关于它的事情 在伊恩·古德费罗的自然GAN中,鉴别器模型输出一个表示概率的标量值。 但是DCGAN的鉴别器是用CNN架构设计的。我知道CNN的输出是类概率向量 那么鉴别器是如何在DCGAN上工作的呢?DCGAN的鉴别器的输出是什么?请参阅详细答案 简而言之:假设你制作了一个CNN,它有n个输入大小的过滤器和有效的填充。然后输出的形状将为nx1x1。然后,您可以将softmax应用于该形状,并在通道中获得概率 您可能还想阅读我的硕士论文。鉴别器D获取3x64x64

我正在研究DCGAN,我想知道一些关于它的事情

在伊恩·古德费罗的自然GAN中,鉴别器模型输出一个表示概率的标量值。 但是DCGAN的鉴别器是用CNN架构设计的。我知道CNN的输出是类概率向量

那么鉴别器是如何在DCGAN上工作的呢?DCGAN的鉴别器的输出是什么?

请参阅详细答案

简而言之:假设你制作了一个CNN,它有n个输入大小的过滤器和有效的填充。然后输出的形状将为nx1x1。然后,您可以将softmax应用于该形状,并在通道中获得概率

您可能还想阅读我的硕士论文。

鉴别器D获取3x64x64(例如)输入图像,通过一系列Conv2d、BATCHTNORM2D和LeakyReLU层对其进行处理,并通过Sigmoid激活函数输出最终概率

让我们看一个示例代码来了解它的输入和输出

class Discriminator(nn.Module):
def __init__(self, ngpu):
    super(Discriminator, self).__init__()
    self.ngpu = ngpu
    self.main = nn.Sequential(

        nn.Conv2d(nc, ndf, 4, 2, 1, bias=False),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf, ndf*2, 4, 2, 1, bias=False),
        nn.BatchNorm2d(ndf*2),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf*2, ndf*4, 4, 2, 1, bias=False),
        nn.BatchNorm2d(ndf*4),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf*4, ndf*8, 4, 2, 1, bias=False ),
        nn.BatchNorm2d(ndf*8),
        nn.LeakyReLU(0.2, inplace=True),

        nn.Conv2d(ndf*8, 1, 4, 1, 0, bias=False),
        nn.Sigmoid()

    )

def forward(self, input):
    return self.main(input)

有关更多详细信息,我将投票结束这个问题,因为它与主题无关。你可能会发现关于在和上生成对抗性网络有很多问题。你似乎还表现出一种误解:卷积神经网络的输出并不总是一个向量a类概率。通常只有在多类问题中,当在网络头部应用softmax激活时,才会出现这种情况。