Machine learning 为什么XOR问题在双极表示中效果更好?

Machine learning 为什么XOR问题在双极表示中效果更好?,machine-learning,neural-network,sigmoid,Machine Learning,Neural Network,Sigmoid,我正在学习神经网络课程,教授向我们介绍了异或问题。我理解XOR问题不是线性可分的,为什么我们需要使用神经网络来解决这个问题 然而,他提到XOR在双极表示(-1,+1)下工作得更好,我不理解。我已经查看了不同网站的资源,但我不能真正理解其中的原因 我想知道为什么双极表示比二进制表示更好?这个论点的基本原理是什么?输入节点的权重增量涉及输入值。使用二进制表示时,输入节点的值可能为0,这意味着其权重增量为0。换句话说,当应用此输入向量时,此节点无法“学习”任何内容 相反,如果使用双极表示,则可以避免这

我正在学习神经网络课程,教授向我们介绍了异或问题。我理解XOR问题不是线性可分的,为什么我们需要使用神经网络来解决这个问题

然而,他提到XOR在双极表示(-1,+1)下工作得更好,我不理解。我已经查看了不同网站的资源,但我不能真正理解其中的原因


我想知道为什么双极表示比二进制表示更好?这个论点的基本原理是什么?

输入节点的权重增量涉及输入值。使用二进制表示时,输入节点的值可能为0,这意味着其权重增量为0。换句话说,当应用此输入向量时,此节点无法“学习”任何内容

相反,如果使用双极表示,则可以避免这种情况,因为输入节点的值永远不会为0。这意味着输入节点始终可以学习,从而帮助训练更快地收敛