Math caffe回归背后的理论

Math caffe回归背后的理论,math,machine-learning,regression,caffe,Math,Machine Learning,Regression,Caffe,有人知道Caffe回归背后的理论吗?我知道我们有一个损失函数,但这适用于什么 我的意思是,对于有损耗层的Softmax,我们有一个Softmax函数,我们应用交叉熵损耗来确定我们的更新。我要找的是欧几里得损失的“Softmax函数”。有什么建议吗?我已经看过了Caffe层的解释,但这里只是说误差平方和被用作损失函数。这与Caffe无关,这是一个一般的回归问题 损失函数,通常以L(预测,真值)的形式表示,是一个分配标量(数字)的函数,您试图将其最小化,以解决任务(即进行重新组合真值的预测) 一般来

有人知道Caffe回归背后的理论吗?我知道我们有一个损失函数,但这适用于什么


我的意思是,对于有损耗层的Softmax,我们有一个Softmax函数,我们应用交叉熵损耗来确定我们的更新。我要找的是欧几里得损失的“Softmax函数”。有什么建议吗?我已经看过了Caffe层的解释,但这里只是说误差平方和被用作损失函数。

这与Caffe无关,这是一个一般的回归问题

损失函数,通常以L(预测,真值)的形式表示,是一个分配标量(数字)的函数,您试图将其最小化,以解决任务(即进行重新组合真值的预测)

一般来说,在回归中,根据函数f(x |θ)进行预测,其中θ是函数的参数集,例如,这些参数可能是神经网络的权重集,或线性模型的系数。因此,您的优化问题是

minimise_theta    L(f(X|theta), truth)
例如,对于L2损失(欧几里德距离),您得到

寻找最佳θ的方式取决于使用的优化程序,它可能会将此函数区分为寻找最小值,您可能会使用一些元优化程序(如遗传方法等)


特别是对于Caffe和神经网络,f(x|i |θ)是您的神经网络,它可以由多个模块(层、节点)组成,根据θ和x|i执行不同的操作。特别是Softmax没有任何参数,因此它是不可训练的,它只会使您的预测正常化,但通常在Softmax下面有一些可训练的模块(如线性层),这些模块会根据上述优化问题进行调整。您搜索的参数可以将您在培训集中的损失降到最低。

请重新表述您的问题,因为很难理解您所面临的实际问题。我同意您的说法。我现在明白我在哪里犯了我的思考错误。我错误地使用了Softmax函数。谢谢你的回复!
minimise_theta    SUM_i || f(x_i|theta) - truth_i ||^2
                           ------------   -------
                                |            |
                                v            V
                           prediction      true
                           for point      value for
                           x_i            point x_i