Scikit learn 支持向量回归中的度&RBF核

Scikit learn 支持向量回归中的度&RBF核,scikit-learn,svm,gaussian,Scikit Learn,Svm,Gaussian,我想问一下SVM上的RBF核 在此处的sklearn文档中: 指出“核函数的阶数仅在poly、rbf、sigmoid中显著 我可以理解多项式核上度的含义,但是高斯(rbf)核呢? 如我所见,sklearn的库中的默认值是3。我还运行了一个GridSearch,其中一些数字是我得出的,估计3也是最佳值。 这真的很重要吗?或者这只是一个错误类型?如果是的话,有人能解释一下它的意义和价值吗 提前感谢内核只是用来实现模型的基函数。3次多项式函数是ax^3+bx^2+cx+d。你可以使用更高次的多项式,但

我想问一下SVM上的RBF核

在此处的sklearn文档中: 指出“核函数的阶数仅在
poly
rbf
sigmoid
中显著

我可以理解多项式核上度的含义,但是高斯(rbf)核呢? 如我所见,sklearn的库中的默认值是3。我还运行了一个
GridSearch
,其中一些数字是我得出的,估计3也是最佳值。 这真的很重要吗?或者这只是一个错误类型?如果是的话,有人能解释一下它的意义和价值吗


提前感谢

内核只是用来实现模型的基函数。3次多项式函数是
ax^3+bx^2+cx+d
。你可以使用更高次的多项式,但是你可能会过拟合,这意味着你的模型不能很好地推广,这正是你想要的iquis可防止过度安装

RBF内核基于高斯函数,类似aexp(-bx)。如果你对机器学习一无所知,我建议你使用这些函数。一般来说,它们适应得最好

如果你想了解更多关于机器学习的信息,在线课程对初学者来说是非常好的