Python Caffe迭代损耗与列车净损耗

Python Caffe迭代损耗与列车净损耗,python,neural-network,euclidean-distance,caffe,pycaffe,Python,Neural Network,Euclidean Distance,Caffe,Pycaffe,我正在使用caffe训练一个CNN,底部有一个欧几里德损失层,我的solver.prototxt文件配置为每100次迭代显示一次。我看到这样的东西 Iteration 4400, loss = 0 I0805 11:10:16.976716 1936085760 solver.cpp:229] Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss) 我对迭代损失和列车净损失之间的区别感到困惑。通常迭代损耗很小(约为0),列车净输

我正在使用caffe训练一个CNN,底部有一个欧几里德损失层,我的solver.prototxt文件配置为每100次迭代显示一次。我看到这样的东西

Iteration 4400, loss = 0
I0805 11:10:16.976716 1936085760 solver.cpp:229]     Train net output #0: loss = 2.92436 (* 1 = 2.92436 loss)

我对迭代损失和列车净损失之间的区别感到困惑。通常迭代损耗很小(约为0),列车净输出损耗稍大。有人能澄清一下吗?

埃文·谢尔哈默已经回答了他的问题


正如他指出的,
净输出#k
结果是特定迭代/批次的净输出,而
迭代T,损耗=X
输出根据
平均损耗
字段在迭代之间平滑。

平均损耗是多少?它有什么作用?@Coderx7我找不到这方面的官方文档,但请参阅和。如果您的问题得到解决,您介意接受答案吗?