Machine learning 为什么在特征映射时忽略多项式项的系数? 我一直在研究Andrew Ng在CurSera上的机器学习课程。 我已经解决了第三周末的编程作业。但有一件事我很好奇,我不想在没有理由的情况下跳过,至少我不能

Machine learning 为什么在特征映射时忽略多项式项的系数? 我一直在研究Andrew Ng在CurSera上的机器学习课程。 我已经解决了第三周末的编程作业。但有一件事我很好奇,我不想在没有理由的情况下跳过,至少我不能,machine-learning,polynomials,Machine Learning,Polynomials,为什么在特征映射时忽略多项式项的系数 我引用了作业的内容(您可以从链接查看) 2.2功能映射 更好地拟合数据的一种方法是从每个数据创建更多特征 指向在提供的函数mapFeature.m中,我们将把这些特性映射到 x1和x2的所有多项式项,直到六次方 如您所见,系数不包括在内。 考虑到我不擅长数学,我认为我们发现所有多项式项都在做: 既然在这里我们在取幂后得到系数,为什么我们要在向量中省略它们呢 所谓系数,我指的是术语的系数 而不是向量。我不确定我们谈论的是什么系数?术语的系数。比如向量中的

为什么在特征映射时忽略多项式项的系数

我引用了作业的内容(您可以从链接查看)

2.2功能映射

更好地拟合数据的一种方法是从每个数据创建更多特征 指向在提供的函数mapFeature.m中,我们将把这些特性映射到 x1和x2的所有多项式项,直到六次方

如您所见,系数不包括在内。 考虑到我不擅长数学,我认为我们发现所有多项式项都在做:

既然在这里我们在取幂后得到系数,为什么我们要在向量中省略它们呢

所谓系数,我指的是术语的系数


而不是向量。

我不确定我们谈论的是什么系数?术语的系数。比如向量中的2x1x2而不是x1x2。好吧,我会把这部分编辑清楚。