Machine learning 哪些论文显示了成本函数和损失函数的凸性?

Machine learning 哪些论文显示了成本函数和损失函数的凸性?,machine-learning,neural-network,convex-optimization,Machine Learning,Neural Network,Convex Optimization,我们知道,在神经网络中,如果我们想要全局最小值,我们需要损失函数是凸的,那么有没有任何论文证明并讨论过这一点?这不仅仅是神经网络,对于任何学习任务,凸损失函数都确保存在唯一的最小值。对于大多数常见的损失函数,它们的凸性是相当直接的,可以使用凸性的一个数学定义来证明。 例如,来自马里兰大学的这些幻灯片处理了所有这些,并给出了凸损失函数以及它们的曲线:是的,我知道所有这些,但是在我向我的老师介绍时,他说我必须参考一篇写着这些的论文,我到处都搜索过,但我什么也找不到。Google Scholar上的快

我们知道,在神经网络中,如果我们想要全局最小值,我们需要损失函数是凸的,那么有没有任何论文证明并讨论过这一点?

这不仅仅是神经网络,对于任何学习任务,凸损失函数都确保存在唯一的最小值。对于大多数常见的损失函数,它们的凸性是相当直接的,可以使用凸性的一个数学定义来证明。
例如,来自马里兰大学的这些幻灯片处理了所有这些,并给出了凸损失函数以及它们的曲线:

是的,我知道所有这些,但是在我向我的老师介绍时,他说我必须参考一篇写着这些的论文,我到处都搜索过,但我什么也找不到。Google Scholar上的快速搜索为你提供了很多关于这个主题的论文,例如:或