Machine learning 线性回归中学习算法的输出是什么?

Machine learning 线性回归中学习算法的输出是什么?,machine-learning,linear-regression,gradient-descent,Machine Learning,Linear Regression,Gradient Descent,阅读Andrew NG关于线性回归的机器学习课程笔记: 获取一个训练集并将其传递到学习算法中。算法输出一个函数h(假设)。 h获取输入并尝试输出估计值y 然后它接着说: 将h表示为:hθ(x)=θ0+θx 这是否意味着hyptohesis不是由学习算法输出的,而是我们将其定义为hθ(x)=θ0+θx 而不是“获取一个训练集并将其传递到学习算法中。算法输出一个函数h(假设)。”语句应该是“获取一个训练集并将其传递到学习算法中。算法输出的值使假设尽可能准确”?对于线性回归,您希望您的学习算法输出线性

阅读Andrew NG关于线性回归的机器学习课程笔记:

获取一个训练集并将其传递到学习算法中。算法输出一个函数h(假设)。 h获取输入并尝试输出估计值y

然后它接着说:

将h表示为:
hθ(x)=θ0+θx

这是否意味着hyptohesis不是由学习算法输出的,而是我们将其定义为
hθ(x)=θ0+θx


而不是“获取一个训练集并将其传递到学习算法中。算法输出一个函数h(假设)。”语句应该是“获取一个训练集并将其传递到学习算法中。算法输出的值使假设尽可能准确”?

对于线性回归,您希望您的学习算法输出线性函数

也就是h(x)=θ0+θ10

在这种情况下,学习算法学习最佳θ0和θ1以适合您的训练数据

如果你想让你的学习算法学习一个三次多项式,你的学习模型的输出将是a,b,c和d 以致

h(x)=ax3+bx2+cx+d


但是您的断言是正确的,学习算法选择最佳参数以最小化错误函数的代价。通常这是平方误差+一些正则化因子。

原则上你就在这里。学习理论中定义的真正的
学习算法
是一种算法,它将标记的实例和一整类可能的假设作为输入,然后选择一个假设作为输出


严格来说,输出预测的算法不是学习算法。但是当然,这样的算法可以分为一个学习算法——实际上
学习
参数的算法,这里是
theta
s。还有一种预测算法,它将一些输入实例转换为我们的预测,然后返回给调用者。

这不意味着hyptohesis不是由学习算法输出的,而是我们将其定义为hθ(x)=θ0+θx
-你在这里是什么意思
theta(x)=theta0+theta1x是您的假设。@cel该假设被定义为“h theta(x)=theta0+theta1x”。学习算法确实输出了课程笔记中所述的假设。我不知道这两种说法之间的区别。返回一个函数或返回一个参数函数的所有必要参数基本上是相同的信息。@cel我的意思是在前面的评论中说“@cel假设被定义为“hθ(x)=θ0+θ10”。学习算法没有输出课程笔记中所述的该假设。”我区分返回函数和返回函数的求值。学习算法似乎返回值,而不是函数。我认为cel在这里是正确的,但我们无法看到您的系统输出。很可能你得到的假设系数只是两个原始数字。我假设你的任务是取系数并建立方程,我不确定你是否能做出这里的区别。他在问题中指出,算法返回的是系数(他说是θ值),而不是预测。因此,在没有任何代码的情况下,这可能只是一个真正的学习算法,只需要一组返回学习结果的
print
语句。我看不出有任何迹象表明,还有另一部分会接受新的输入,并使用线性方程作为输出,例如预测算法。如果我正确理解了这个问题,那么书中说,算法输出一个函数,但它实际上输出了转换后的值——这就是造成混淆的原因。在我的算法理论中,没有打印语句:)。但是,如果算法以合适的编码形式输出参数,那么它就是一个真正的学习算法。不过,我还是不太明白OP的问题。我认为这个问题只是在措辞上有点迂腐,当你最初的评论没有给出答案时,你就把问题弄得更复杂了。原则上你是完全正确的,但我不确定这个原则在这里是否适用。我对这个问题的看法是:他建议,因为系数是作为原始值返回的,所以它不返回函数。你最初的观察结果是正确的——它们是相同的,只是没有以相同的方式呈现,他认为课程的措辞应该反映出来that@roganjosh,很公平,但我现在的问题正好回答了问题的标题:PHaha,没错。我认为在没有任何反馈的情况下,我们已经走到了死胡同。在这一点上,线程中应该有足够多的信息来回答这个问题,不管它的真实形式是什么:PI投票反映了对标题的回答。