Deep learning 鉴别器如何在DCGAN上工作?
我正在研究DCGAN,我想知道一些关于它的事情 在伊恩·古德费罗的自然GAN中,鉴别器模型输出一个表示概率的标量值。 但是DCGAN的鉴别器是用CNN架构设计的。我知道CNN的输出是类概率向量 那么鉴别器是如何在DCGAN上工作的呢?DCGAN的鉴别器的输出是什么?请参阅详细答案 简而言之:假设你制作了一个CNN,它有n个输入大小的过滤器和有效的填充。然后输出的形状将为nx1x1。然后,您可以将softmax应用于该形状,并在通道中获得概率 您可能还想阅读我的硕士论文。鉴别器D获取3x64x64(例如)输入图像,通过一系列Conv2d、BATCHTNORM2D和LeakyReLU层对其进行处理,并通过Sigmoid激活函数输出最终概率 让我们看一个示例代码来了解它的输入和输出Deep learning 鉴别器如何在DCGAN上工作?,deep-learning,dcgan,Deep Learning,Dcgan,我正在研究DCGAN,我想知道一些关于它的事情 在伊恩·古德费罗的自然GAN中,鉴别器模型输出一个表示概率的标量值。 但是DCGAN的鉴别器是用CNN架构设计的。我知道CNN的输出是类概率向量 那么鉴别器是如何在DCGAN上工作的呢?DCGAN的鉴别器的输出是什么?请参阅详细答案 简而言之:假设你制作了一个CNN,它有n个输入大小的过滤器和有效的填充。然后输出的形状将为nx1x1。然后,您可以将softmax应用于该形状,并在通道中获得概率 您可能还想阅读我的硕士论文。鉴别器D获取3x64x64
class Discriminator(nn.Module):
def __init__(self, ngpu):
super(Discriminator, self).__init__()
self.ngpu = ngpu
self.main = nn.Sequential(
nn.Conv2d(nc, ndf, 4, 2, 1, bias=False),
nn.LeakyReLU(0.2, inplace=True),
nn.Conv2d(ndf, ndf*2, 4, 2, 1, bias=False),
nn.BatchNorm2d(ndf*2),
nn.LeakyReLU(0.2, inplace=True),
nn.Conv2d(ndf*2, ndf*4, 4, 2, 1, bias=False),
nn.BatchNorm2d(ndf*4),
nn.LeakyReLU(0.2, inplace=True),
nn.Conv2d(ndf*4, ndf*8, 4, 2, 1, bias=False ),
nn.BatchNorm2d(ndf*8),
nn.LeakyReLU(0.2, inplace=True),
nn.Conv2d(ndf*8, 1, 4, 1, 0, bias=False),
nn.Sigmoid()
)
def forward(self, input):
return self.main(input)
有关更多详细信息,我将投票结束这个问题,因为它与主题无关。你可能会发现关于在和上生成对抗性网络有很多问题。你似乎还表现出一种误解:卷积神经网络的输出并不总是一个向量a类概率。通常只有在多类问题中,当在网络头部应用softmax激活时,才会出现这种情况。