Machine learning 假设优化收敛,逻辑回归是否总是找到全局最优?

Machine learning 假设优化收敛,逻辑回归是否总是找到全局最优?,machine-learning,logistic-regression,minimization,convergence,maximization,Machine Learning,Logistic Regression,Minimization,Convergence,Maximization,我不确定这两种情况是否普遍如此 (逻辑回归总是找到全局最优值吗) 尤其是 (当优化收敛时,逻辑回归是否总是找到全局最优值) 谢谢当数据是可分离的时,最佳值是无穷大的,所以你永远无法达到它。不过,通常情况下,您使用的任何优化算法都会达到这样一个点,即通过进一步迭代无法获得明显的改进 如果不是这样的话,经过充分调整的算法最终会找到全局最优值,因为损失函数是可分离的。当数据是可分离的时,最优值是无穷大的,因此您永远无法达到它。不过,通常情况下,您使用的任何优化算法都会达到这样一个点,即通过进一步迭代无

我不确定这两种情况是否普遍如此 (逻辑回归总是找到全局最优值吗)

尤其是 (当优化收敛时,逻辑回归是否总是找到全局最优值)


谢谢

当数据是可分离的时,最佳值是无穷大的,所以你永远无法达到它。不过,通常情况下,您使用的任何优化算法都会达到这样一个点,即通过进一步迭代无法获得明显的改进


如果不是这样的话,经过充分调整的算法最终会找到全局最优值,因为损失函数是可分离的。

当数据是可分离的时,最优值是无穷大的,因此您永远无法达到它。不过,通常情况下,您使用的任何优化算法都会达到这样一个点,即通过进一步迭代无法获得明显的改进


如果不是这种情况,经过充分调整的算法最终会找到全局最优,因为损失函数是。

谢谢,你能澄清为什么它会找到全局最优,因为损失函数是凸的吗?凸(凹)函数只有一个最小值(最大值)。迭代优化算法,如梯度下降法或牛顿法,通常用于逻辑回归,在目标函数减少(增加)的空间中搜索方向。因此,如果更新步骤足够小,它们最终将遇到最佳结果。我添加了一个链接。谢谢,你能解释一下为什么它会找到全局最优解,因为损失函数是凸的吗?凸(凹)函数只有一个最小值(最大值)。迭代优化算法,如梯度下降法或牛顿法,通常用于逻辑回归,在目标函数减少(增加)的空间中搜索方向。因此,如果更新步骤足够小,它们最终将遇到最佳结果。我添加了一个链接。