Neural network 为什么不';t神经网络凸?

Neural network 为什么不';t神经网络凸?,neural-network,mathematical-optimization,convex,cost-based-optimizer,Neural Network,Mathematical Optimization,Convex,Cost Based Optimizer,与线性回归和逻辑回归不同,ANN的代价函数不是凸的,因此容易受到局部最优解的影响。有谁能提供一个直觉,解释为什么ANN会出现这种情况,为什么不能修改假设以产生凸函数?我在这里找到了一个充分的解释: 基本上,由于权重可以跨层排列,因此任何极小值都有多个解决方案可以实现相同的结果,因此函数不能是凸函数(也不能是凹函数)

与线性回归和逻辑回归不同,ANN的代价函数不是凸的,因此容易受到局部最优解的影响。有谁能提供一个直觉,解释为什么ANN会出现这种情况,为什么不能修改假设以产生凸函数?

我在这里找到了一个充分的解释:

基本上,由于权重可以跨层排列,因此任何极小值都有多个解决方案可以实现相同的结果,因此函数不能是凸函数(也不能是凹函数)