Machine learning 如果转置卷积层接收3通道输入并输出2通道输出,它会有多少内核?为什么?

Machine learning 如果转置卷积层接收3通道输入并输出2通道输出,它会有多少内核?为什么?,machine-learning,pytorch,conv-neural-network,Machine Learning,Pytorch,Conv Neural Network,tconv层不是应该将6个内核分成两部分吗?一个通道有三个内核,另一个通道有三个内核生成两个通道,因为tconv层要输出两个通道输出?我是对的还是怎么了?是的,就是这样。文档中对此进行了解释,您可以通过打印权重张量的形状来查看: import torch.nn as nn x = nn.Conv2d(3, 2, 7) print(x.weight.shape) >>> (2, 3, 7, 7) 确实有两组3个形状的核(7,7)我说的是转置卷积层而不是卷积层。对于转置卷积层,权

tconv层不是应该将6个内核分成两部分吗?一个通道有三个内核,另一个通道有三个内核生成两个通道,因为tconv层要输出两个通道输出?我是对的还是怎么了?

是的,就是这样。文档中对此进行了解释,您可以通过打印权重张量的形状来查看:

import torch.nn as nn
x = nn.Conv2d(3, 2, 7)
print(x.weight.shape)
>>> (2, 3, 7, 7)

确实有两组3个形状的核(7,7)

我说的是转置卷积层而不是卷积层。对于转置卷积层,权重形状是不同的,我不知道为什么。如果你知道,请告诉我。