pytorch中torch.nn.gru函数的输入是什么?
我正在使用gru函数来实现RNN。此RNN(GRU)在一些CNN层之后使用。有人能告诉我GRU函数的输入是什么吗?特别是,隐藏的大小是固定的吗pytorch中torch.nn.gru函数的输入是什么?,pytorch,recurrent-neural-network,gated-recurrent-unit,Pytorch,Recurrent Neural Network,Gated Recurrent Unit,我正在使用gru函数来实现RNN。此RNN(GRU)在一些CNN层之后使用。有人能告诉我GRU函数的输入是什么吗?特别是,隐藏的大小是固定的吗 self.gru = torch.nn.GRU( input_size=input_size, hidden_size=128, num_layers=1, batch_first=True, bidirectional=True)
self.gru = torch.nn.GRU(
input_size=input_size,
hidden_size=128,
num_layers=1,
batch_first=True,
bidirectional=True)
根据我的理解,输入大小将是功能的数量,而GRU的隐藏大小始终固定为128?有人能纠正我吗。或者首先给出他们的反馈,
GRU
不是一个函数,而是一个类,您正在调用它的构造函数。您正在这里创建类GRU
的实例,它是一个层(或pytorch中的Module
)
input\u size
必须与上一个CNN层的out\u频道相匹配
您看到的所有参数都不是固定的。只需在那里输入另一个值,它将是其他值,即用您喜欢的任何值替换128
即使它被称为hidden_size
,对于GRU,该参数也决定了输出特性。换句话说,如果在GRU之后有另一层,则该层的输入\u大小
(或在\u功能中
或在\u通道中
或任何其名称)必须与GRU的隐藏\u大小
匹配
另外,请看一下。这将确切地告诉您传递给构造函数的参数的用途。此外,它还告诉您,一旦实际使用层(通过self.gru(…)
),预期的输入是什么,以及该调用的输出是什么