Image processing 与Caffe一起培训暹罗网络
我正在训练一个简单的暹罗网络来比较一对图像。我按照给出的例子做了自己的模型 我的问题是收缩损失函数。该函数实现的细节是定义caffe。在我的实现中,我使用了边距=1,定义如下Image processing 与Caffe一起培训暹罗网络,image-processing,neural-network,deep-learning,caffe,Image Processing,Neural Network,Deep Learning,Caffe,我正在训练一个简单的暹罗网络来比较一对图像。我按照给出的例子做了自己的模型 我的问题是收缩损失函数。该函数实现的细节是定义caffe。在我的实现中,我使用了边距=1,定义如下 layer { name: "loss" type: "ContrastiveLoss" bottom: "data" bottom: "data_p" bottom: "label" top: "loss" contrastive_loss_param { margin: 1 }
layer {
name: "loss"
type: "ContrastiveLoss"
bottom: "data"
bottom: "data_p"
bottom: "label"
top: "loss"
contrastive_loss_param {
margin: 1
}
}
如果我的数据不一致,则标记为0,如果相似,则标记为1。我对对比损失函数的界限感到困惑。如何选择边距参数
状态边距>0,但有上限吗?在我看来,它就像一个超参数。
较大的裕度会以较大的裕度分离不同的数据,但会使网络训练变得困难。一小部分人很容易学会坏的人际网络。通常,您应该为不同的数据集选择不同的边距。对于上限,它由底部的“data”和“data\p”确定。如果'data'和'data_p'的值范围受到限制,例如其绝对值小于1,则存在一个上限。在我看来,它就像一个超参数。
较大的裕度会以较大的裕度分离不同的数据,但会使网络训练变得困难。一小部分人很容易学会坏的人际网络。通常,您应该为不同的数据集选择不同的边距。对于上限,它由底部的“data”和“data\p”确定。如果'data'和'data_p'的值范围受到限制,例如其绝对值小于1,则存在上限。暹罗网络中的边距被视为
超参数。较大的裕度值将使收敛速度极慢 暹罗网络中的边缘被认为是超参数
。较大的裕度值将使收敛速度极慢 裕度的上限是损失公式可以得到的样本之间的最大距离。所以它取决于选择的距离:如果它的余弦距离是1,如果它的欧几里得距离是无界的。
解释排名损失计算的blogpost解释了这一点/边际的上限是损失公式可以得到的样本之间的最大距离。所以它取决于选择的距离:如果它的余弦距离是1,如果它的欧几里得距离是无界的。
这篇解释排名损失计算的博客文章解释了这一点/