Machine learning 机器学习中如何预测sigmoid函数的结果
我正在上Coursera机器学习课程,我对sigmoid函数有点困惑 我实现了sigmoid函数,如下所示:Machine learning 机器学习中如何预测sigmoid函数的结果,machine-learning,octave,Machine Learning,Octave,我正在上Coursera机器学习课程,我对sigmoid函数有点困惑 我实现了sigmoid函数,如下所示: g = 1 ./ (1+e.^(-z)); 写了一个函数来预测结果 p = sigmoid(X*theta) >= 0.5 问题是 "For a student with an Exam 1 score of 45 and an Exam 2 score of 85, you should expect to see an admission probability of 0.
g = 1 ./ (1+e.^(-z));
写了一个函数来预测结果
p = sigmoid(X*theta) >= 0.5
问题是
"For a student with an Exam 1 score
of 45 and an Exam 2 score of 85, you should expect to see an admission
probability of 0.776"
但我不确定如何将这两个x值插入到我创建的函数中
如果θ是0.218,那么45分和85分的考试分数如何给出0.776的概率?有人能解释一下吗
感谢概率由sigmoid函数给出
p = sigmoid(X*theta)
# Since there are two inputs, the model will have 2 weights and a bias.
p = sigmoid(0.45*w1+0.85*w2+b)
# The actual output is given by
y = 0.776
# Loss function
loss = (p-y)^2
# Find the weights by minimizing the loss function using gradient descent.
概率由sigmoid函数给出
p = sigmoid(X*theta)
# Since there are two inputs, the model will have 2 weights and a bias.
p = sigmoid(0.45*w1+0.85*w2+b)
# The actual output is given by
y = 0.776
# Loss function
loss = (p-y)^2
# Find the weights by minimizing the loss function using gradient descent.
谢谢,但我不太确定。Sigmoid函数定义为只有一个参数,我不确定w1、w1和b来自何处。w1、w2和b是您在公式中定义为θ的值,X是[0.45,0.85]。sigmoid的输入只有一个数字。所以w1、w2和b是从我的梯度下降中得到的参数?是的,我运行上面的代码得到:sigmoid(-0.1806*0.45+0.9136*0.85+0.5473)谢谢!顺便提一下,还有一个问题。当我们第一次测试代价函数时,我看到赋值首先用零向量和非零向量来测试它。有什么区别?哪种方法正确?谢谢,但我不太确定。Sigmoid函数定义为只有一个参数,我不确定w1、w1和b来自何处。w1、w2和b是您在公式中定义为θ的值,X是[0.45,0.85]。sigmoid的输入只有一个数字。所以w1、w2和b是从我的梯度下降中得到的参数?是的,我运行上面的代码得到:sigmoid(-0.1806*0.45+0.9136*0.85+0.5473)谢谢!顺便提一下,还有一个问题。当我们第一次测试代价函数时,我看到赋值首先用零向量和非零向量来测试它。有什么区别?哪种方法是正确的?