Machine learning 傻瓜脸网

Machine learning 傻瓜脸网,machine-learning,deep-learning,conv-neural-network,Machine Learning,Deep Learning,Conv Neural Network,FaceNet算法(在文章中描述)使用卷积神经网络来表示128维欧氏空间中的图像 读这篇文章时,我不明白: 损耗函数对卷积网络有何影响(在正常网络中,为了使损耗最小化,权值略有改变- 反向传播-那么,在这种情况下会发生什么?) 三胞胎是如何挑选的 2.1。我怎么知道负片是硬的 2.2。为什么我要用损失函数来确定负像 2.3。我什么时候检查我的图像的硬度相对于锚-我相信那是在我发送一个三元组给网络处理之前,对吧 以下是一些可以澄清您疑虑的答案: 即使在这里调整权重以将损失降至最低,只是损失项并不

FaceNet算法(在文章中描述)使用卷积神经网络来表示128维欧氏空间中的图像

读这篇文章时,我不明白:

  • 损耗函数对卷积网络有何影响(在正常网络中,为了使损耗最小化,权值略有改变- 反向传播-那么,在这种情况下会发生什么?)
  • 三胞胎是如何挑选的

    2.1。我怎么知道负片是硬的

    2.2。为什么我要用损失函数来确定负像

    2.3。我什么时候检查我的图像的硬度相对于锚-我相信那是在我发送一个三元组给网络处理之前,对吧


  • 以下是一些可以澄清您疑虑的答案:

  • 即使在这里调整权重以将损失降至最低,只是损失项并不复杂。损失分为两部分(方程式中以+分隔),
    第一部分是一个人的形象,与同一个人的不同形象进行比较。
    第二部分是人的形象与另一个人的形象的比较。我们希望
    第一部分
    的损失小于
    第二部分
    的损失,损失方程本质上就是这样的。因此,这里您基本上希望调整权重,以便
    同一个人错误
    更少,而
    不同的人错误
    更多

  • 损失项涉及三个图像:有问题的图像(锚定):
    xu a
    ,其正对:
    xu p
    ,其负对:
    xu n
    x_a
    最硬正片
    是与其他正片相比误差最大的正片。
    x_a
    最硬负片
    是最接近另一个人的图像。所以你想让最远的积极因素彼此靠近,把最接近的消极因素推得更远。这在损失方程中得到了体现

  • Facenet
    在训练期间计算其锚定(在线)。在每个
    小批量
    (一组40幅图像)中,他们选择
    最硬负片
    作为锚定,而不是选择
    最硬正片
    图像,而是选择批次中的所有锚定正片对


  • 如果你想实现<代码>脸部识别,你最好考虑这一点,它实现了<代码>中心丢失,它更容易训练和显示更好的性能。p> 你能详细说明3号吗?让我困惑的是,最难的负片是由网络计算的(使用函数f生成嵌入),但同时也是输入所必需的。f(x)是输出,损耗是根据模型的输出计算的。在纸张中,输入是一批40幅图像,对于每幅图像作为锚定,您可以根据批中40幅图像的输出在批中选择一幅

    最硬负片
    。这就是它被称为内联训练的原因。一旦它被训练,你就可以获得训练集中每个面的嵌入
    f(x)
    ,并形成一个字典。为了测试一个新的面,获取嵌入并找到所有字典项的L2损失,然后选择最小值。如果标签是相同的,那么它就是匹配的。你能解释一下在线培训是如何工作的吗?现在,我了解到,根据网络的输出,我为批次中的每个图像选择硬负片。然后我使用这些对(锚定、正、硬负)来计算误差并更新权重?批次包含什么?不同人物的图像或同一个人的多张图像以及一些底片(其他人的图像)。非常感谢你!