Machine learning 在CVPR16文件中;“深比特”;Kevin Lin等人,这是损失函数部分的打字错误吗?

Machine learning 在CVPR16文件中;“深比特”;Kevin Lin等人,这是损失函数部分的打字错误吗?,machine-learning,computer-vision,loss-function,Machine Learning,Computer Vision,Loss Function,最近,我正在研究将图像编码成紧凑的二进制描述符的可能方法,该描述符允许在大型语料库中进行快速图像匹配,这是Kevin Lin和他的同事写的 在本文中,他们提出了一种无监督学习方法来学习图像的紧凑二进制描述符。具体而言,他们提出了一个损失函数来惩罚由3个部分组成的描述符: 量化损耗 均匀分布损耗 比特相关损耗 我的问题在于第一部分。在本文中,损失函数被定义为二进制位与最后一层激活之间的平方误差之和,该平方误差跨越小批量中的所有训练数据。然而,当我实现这一点时,总体损失变得如此之大,以至于其他两个组

最近,我正在研究将图像编码成紧凑的二进制描述符的可能方法,该描述符允许在大型语料库中进行快速图像匹配,这是Kevin Lin和他的同事写的

在本文中,他们提出了一种无监督学习方法来学习图像的紧凑二进制描述符。具体而言,他们提出了一个损失函数来惩罚由3个部分组成的描述符:

  • 量化损耗
  • 均匀分布损耗
  • 比特相关损耗
  • 我的问题在于第一部分。在本文中,损失函数被定义为二进制位与最后一层激活之间的平方误差之和,该平方误差跨越小批量中的所有训练数据。然而,当我实现这一点时,总体损失变得如此之大,以至于其他两个组件变得有些不相关,因此根本不均匀分布

    所以我想知道这是否是论文中的一个错误,它应该是平方误差的平均值,而不是总和


    干杯。

    我投票将这个问题作为离题题结束,因为这不是关于编程的问题。这是一个离题问题,但由于论文中的所有方程都是编号的,所以准确指出你指的是哪一个不会有什么坏处……我指的是论文中的(5)方程,在求和之前不应该有一个“1/N”吗?我知道这个问题并不完全是关于直接编程的,但它会影响我如何在程序中实现loss函数。顺便说一句,我想知道是否有类似于StackOverflow的科技论文,最好是在机器学习领域?1)请编辑并更新你关于这一澄清的帖子2)不是专门针对科技论文的,但有三(3)个专门讨论这类问题的堆栈交换论坛,即