pytorch中torch.nn.gru函数的输入是什么?

pytorch中torch.nn.gru函数的输入是什么?,pytorch,recurrent-neural-network,gated-recurrent-unit,Pytorch,Recurrent Neural Network,Gated Recurrent Unit,我正在使用gru函数来实现RNN。此RNN(GRU)在一些CNN层之后使用。有人能告诉我GRU函数的输入是什么吗?特别是,隐藏的大小是固定的吗 self.gru = torch.nn.GRU( input_size=input_size, hidden_size=128, num_layers=1, batch_first=True, bidirectional=True)

我正在使用gru函数来实现RNN。此RNN(GRU)在一些CNN层之后使用。有人能告诉我GRU函数的输入是什么吗?特别是,隐藏的大小是固定的吗

self.gru = torch.nn.GRU(
            input_size=input_size,
            hidden_size=128,
            num_layers=1,
            batch_first=True,
            bidirectional=True) 

根据我的理解,输入大小将是功能的数量,而GRU的隐藏大小始终固定为128?有人能纠正我吗。或者首先给出他们的反馈,
GRU
不是一个函数,而是一个类,您正在调用它的构造函数。您正在这里创建类
GRU
的实例,它是一个层(或pytorch中的
Module

input\u size
必须与上一个CNN层的
out\u频道相匹配

您看到的所有参数都不是固定的。只需在那里输入另一个值,它将是其他值,即用您喜欢的任何值替换128

即使它被称为
hidden_size
,对于GRU,该参数也决定了输出特性。换句话说,如果在GRU之后有另一层,则该层的
输入\u大小
(或
在\u功能中
在\u通道中
或任何其名称)必须与GRU的
隐藏\u大小
匹配

另外,请看一下。这将确切地告诉您传递给构造函数的参数的用途。此外,它还告诉您,一旦实际使用层(通过
self.gru(…)
),预期的输入是什么,以及该调用的输出是什么