如何在使用python时同时学习两个函数(pytorch或tensorflow)?

如何在使用python时同时学习两个函数(pytorch或tensorflow)?,python,machine-learning,pytorch,Python,Machine Learning,Pytorch,我有三个系列的观察结果,即Y,T,和X。我想研究两个模型预测值之间的差异。第一个模型是学习g,这样Y=g(T,X)。第二个模型是学习L和f,这样Y=L(T)f(X)。我使用PyTorch包或Tensorflow包学习第一个模型没有问题。然而,我不知道如何学习L和f。在使用PyTorch包时,我可以设置两个具有不同隐藏层和输入的前馈mlp。为了简单起见,我定义了一个前馈MLP类,如下所示: class Feedforward(t.nn.Module): # the definition of a

我有三个系列的观察结果,即
Y
T
,和
X
。我想研究两个模型预测值之间的差异。第一个模型是学习
g
,这样
Y=g(T,X)
。第二个模型是学习
L
f
,这样
Y=L(T)f(X)
。我使用PyTorch包或Tensorflow包学习第一个模型没有问题。然而,我不知道如何学习
L
f
。在使用PyTorch包时,我可以设置两个具有不同隐藏层和输入的前馈mlp。为了简单起见,我定义了一个前馈MLP类,如下所示:

class Feedforward(t.nn.Module): # the definition of a feedforward neural network
    # Basic definition
    def __init__(self, input_size, hidden_size):
        super(Feedforward, self).__init__()
        self.input_size = input_size
        self.hidden_size  = hidden_size
        self.fc1 = t.nn.Linear(self.input_size, self.hidden_size)
        self.relu = t.nn.ReLU()
        self.fc2 = t.nn.Linear(self.hidden_size, 1)
        self.sigmoid = t.nn.Sigmoid()
    # Advance definition
    def forward(self, x):
        hidden = self.fc1(x)
        relu = self.relu(hidden)
        output = self.fc2(relu)
        output = self.sigmoid(output)
        return output

假设
L=前馈(2,10)
L=前馈(3,9)
。根据我的理解,我只能学习
L
f
,但不能同时学习两者。可以同时使用
Y
T
X
学习
L
f
吗?

我可能遗漏了一些东西,但我想你可以:

L = Feedforward(2,10)
f = Feedforward(3,9)
L_opt = Adam(L.parameters(), lr=...)
f_opt = Adam(f.parameters(), lr=...)
for (x,t,y) in dataset:
    L.zero_grad()
    f.zero_grad()
    y_pred = L(t)*f(x)
    loss = (y-y_pred)**2
    loss.backward()
    L_opt.step()
    f_opt.step()
您还可以将它们融合到一个模型中:

class ProductModel(t.nn.Module):
    def __init__(self, L, f):
        self.L = L
        self.f = f
    def forward(self, x,t):
        return self.L(t)*self.f(x)

然后像你训练的那样训练这个模型,但是,如果我们把两个函数融合在一个模型中,我不确定这个模型是如何识别L的输入和f的输入的?好的,这取决于你在
向前
函数中做这件事。在上述建议中,
x
t
之间没有混淆,是吗?