Matlab 逻辑回归-计算成本函数返回错误结果

Matlab 逻辑回归-计算成本函数返回错误结果,matlab,machine-learning,logistic-regression,gradient-descent,Matlab,Machine Learning,Logistic Regression,Gradient Descent,我刚开始在Coursera上学习Andrew Ng的课程。 第三周的主题是逻辑回归,因此我尝试实现以下成本函数 该假设的定义如下: 其中g是S形函数: 这就是我的函数目前的样子: function [J, grad] = costFunction(theta, X, y) m = length(y); % number of training examples S = 0; J = 0; for i=1:m Yi = y(i); Xi = X(i,:); H =

我刚开始在Coursera上学习Andrew Ng的课程。 第三周的主题是逻辑回归,因此我尝试实现以下成本函数

该假设的定义如下:

其中g是S形函数:

这就是我的函数目前的样子:

function [J, grad] = costFunction(theta, X, y)

m = length(y); % number of training examples
S = 0;
J = 0;

for i=1:m
    Yi = y(i);
    Xi = X(i,:);
    H = sigmoid(transpose(theta).*Xi);
    S = S + ((-Yi)*log(H)-((1-Yi)*log(1-H)));
end

J = S/m;

end
给定以下值

X = [magic(3) ; magic(3)];
y = [1 0 1 0 1 0]';
[j g] = costFunction([0 1 0]', X, y)
j返回0.6931 2.6067 0.6931,即使结果应为j=2.6067。我假设席有问题,但我看不到错误。
如果有人能给我指出正确的方向,我将不胜感激。

您应该将sigmoid函数应用于参数向量(θ)和输入向量(
Xi
,在本例中为行向量)的点积。所以,你应该改变

H = sigmoid(transpose(theta).*Xi);

当然,您需要确保将偏差输入1添加到您的输入中(一行1到
X

接下来,考虑如何对整个操作进行矢量化,以便无需任何循环即可编写该操作。那样会快得多

function [J, grad] = costFunction(theta, X, y)
    m = length(y);
    J = 0;
    grad = zeros(size(theta));
    J=(1/m)*((-y'*(log(sigmoid(X*theta))))-((1-y)'*(log(1-(sigmoid(X*theta))))));
    grad=(1/m)*(X'*((sigmoid(X*theta))-y));
end
鉴于sigmoid函数工作正常,上述代码片段对于Logistic回归成本和梯度函数非常有效

function [J, grad] = costFunction(theta, X, y)
    m = length(y);
    J = 0;
    grad = zeros(size(theta));
    J=(1/m)*((-y'*(log(sigmoid(X*theta))))-((1-y)'*(log(1-(sigmoid(X*theta))))));
    grad=(1/m)*(X'*((sigmoid(X*theta))-y));
end