Python 基于Hessian矩阵的梯度下降牛顿法

Python 基于Hessian矩阵的梯度下降牛顿法,python,optimization,machine-learning,gradient-descent,newtons-method,Python,Optimization,Machine Learning,Gradient Descent,Newtons Method,我正在使用牛顿方法实现回归的梯度下降,正如机器学习概率透视(Murphy)一书的8.3节所解释的那样。在这个实现中,我使用的是二维数据。我使用以下符号。 x=输入数据点m*2 y=对应于输入数据的标签输出(m) H=Hessian矩阵定义为 梯度下降更新 其中损失函数定义为 就我而言 是数组,H是 这是我的python实现。然而,这不起作用,因为每次迭代的成本都在增加 def loss(x,y,theta): m,n = np.shape(x) cost_list = []

我正在使用牛顿方法实现回归的梯度下降,正如机器学习概率透视(Murphy)一书的8.3节所解释的那样。在这个实现中,我使用的是二维数据。我使用以下符号。
x=输入数据点m*2
y=对应于输入数据的标签输出(m)
H=Hessian矩阵定义为

梯度下降更新

其中损失函数定义为

就我而言 是数组,H是

这是我的python实现。然而,这不起作用,因为每次迭代的成本都在增加

def loss(x,y,theta):
   m,n = np.shape(x)
   cost_list = []
   for i in xrange(0,n): 
     x_0 = x[:,i].reshape((m,1)) 
     predicted = np.dot(x_0, theta[i])    
     error = predicted - y
     cost = np.sum(error ** 2) /  m
     cost_list.append(cost)

   cost_list = np.array(cost_list).reshape((2,1))
   return cost_list


def NewtonMethod(x,y,theta,maxIterations):
   m,n = np.shape(x)
   xTrans  = x.transpose()
   H       = 2 * np.dot(xTrans,x) / m
   Hinv    = np.linalg.inv(H)
   thetaPrev = np.zeros_like(theta)
   best_iter = maxIterations
   for i in range(0,maxIterations):
     cost = loss(x,y,theta)
     theta  = theta - np.dot(Hinv,cost))
     if(np.allclose(theta,thetaPrev,rtol=0.001,atol=0.001)):
        break;
     else:
       thetaPrev = theta
       best_iter = i

   return theta
下面是我使用的示例值

import numpy as np

x = np.array([[-1.7, -1.5],[-1.0 , -0.3],[ 1.7 ,  1.5],[-1.2, -0.7 ][  0.6,  0.1]])  
y = np.array([ 0.3 ,  0.07, -0.2,  0.07,  0.03 ])
theta = np.zeros(2)
NewtonMethod(x,y,theta,100)
需要帮助/建议来解决此问题。

谢谢

您有效地使用了1的步长。尝试减小步长,看看是否有帮助。也就是说,而不是

这样做:

具有小于1的值