Machine learning 机器学习中如何预测sigmoid函数的结果

Machine learning 机器学习中如何预测sigmoid函数的结果,machine-learning,octave,Machine Learning,Octave,我正在上Coursera机器学习课程,我对sigmoid函数有点困惑 我实现了sigmoid函数,如下所示: g = 1 ./ (1+e.^(-z)); 写了一个函数来预测结果 p = sigmoid(X*theta) >= 0.5 问题是 "For a student with an Exam 1 score of 45 and an Exam 2 score of 85, you should expect to see an admission probability of 0.

我正在上Coursera机器学习课程,我对sigmoid函数有点困惑

我实现了sigmoid函数,如下所示:

g = 1 ./ (1+e.^(-z));
写了一个函数来预测结果

p = sigmoid(X*theta) >= 0.5
问题是

"For a student with an Exam 1 score
of 45 and an Exam 2 score of 85, you should expect to see an admission
probability of 0.776" 
但我不确定如何将这两个x值插入到我创建的函数中

如果θ是0.218,那么45分和85分的考试分数如何给出0.776的概率?有人能解释一下吗


感谢

概率由sigmoid函数给出

 p = sigmoid(X*theta)
 # Since there are two inputs, the model will have 2 weights and a bias.
 p = sigmoid(0.45*w1+0.85*w2+b)
 # The actual output is given by
 y = 0.776
 # Loss function
 loss = (p-y)^2
 # Find the weights by minimizing the loss function using gradient descent.

概率由sigmoid函数给出

 p = sigmoid(X*theta)
 # Since there are two inputs, the model will have 2 weights and a bias.
 p = sigmoid(0.45*w1+0.85*w2+b)
 # The actual output is given by
 y = 0.776
 # Loss function
 loss = (p-y)^2
 # Find the weights by minimizing the loss function using gradient descent.

谢谢,但我不太确定。Sigmoid函数定义为只有一个参数,我不确定w1、w1和b来自何处。w1、w2和b是您在公式中定义为θ的值,X是[0.45,0.85]。sigmoid的输入只有一个数字。所以w1、w2和b是从我的梯度下降中得到的参数?是的,我运行上面的代码得到:sigmoid(-0.1806*0.45+0.9136*0.85+0.5473)谢谢!顺便提一下,还有一个问题。当我们第一次测试代价函数时,我看到赋值首先用零向量和非零向量来测试它。有什么区别?哪种方法正确?谢谢,但我不太确定。Sigmoid函数定义为只有一个参数,我不确定w1、w1和b来自何处。w1、w2和b是您在公式中定义为θ的值,X是[0.45,0.85]。sigmoid的输入只有一个数字。所以w1、w2和b是从我的梯度下降中得到的参数?是的,我运行上面的代码得到:sigmoid(-0.1806*0.45+0.9136*0.85+0.5473)谢谢!顺便提一下,还有一个问题。当我们第一次测试代价函数时,我看到赋值首先用零向量和非零向量来测试它。有什么区别?哪种方法是正确的?