Machine learning SVM作为一种基于实例的学习?

Machine learning SVM作为一种基于实例的学习?,machine-learning,svm,Machine Learning,Svm,我已经读了很多关于支持向量机的书,在我看到的所有书籍和在线文章中,支持向量机被归类为使用超平面的线性分类器。如果数据不能线性分离,则可以将数据映射到更高的维度以启用线性边界 现在,我看到了来自华盛顿大学的佩德罗·多明戈教授的一些文章和幻灯片,他是一位著名的机器学习专家他特别将SVM分类为基于实例的机器学习算法,类似于kNN。谁能给我解释一下吗 例如,在《ACM通讯》(2012年10月)中,他特别将支持向量机置于“基于实例”的表示下,而大多数机器学习人员将其置于逻辑回归的“超平面”下 此外,在他

我已经读了很多关于支持向量机的书,在我看到的所有书籍和在线文章中,支持向量机被归类为使用超平面的线性分类器。如果数据不能线性分离,则可以将数据映射到更高的维度以启用线性边界

现在,我看到了来自华盛顿大学的佩德罗·多明戈教授的一些文章和幻灯片,他是一位著名的机器学习专家他特别将SVM分类为基于实例的机器学习算法,类似于kNN。谁能给我解释一下吗

例如,在《ACM通讯》(2012年10月)中,他特别将支持向量机置于“基于实例”的表示下,而大多数机器学习人员将其置于逻辑回归的“超平面”下

此外,在他的报告中,他给出了这样的理由:


有人能解释一下这种推理吗?为什么SVM是一个基于实例的学习者(如KNN)而不是线性分类器(如逻辑回归)?

我认为最好是直接询问多明戈教授


支持向量机确实使用了一个超平面——毕竟两者都是二进制的。然而,将SVM和LR公式进行比较——与LR不同,SVM不是概率的。HTH,尽管有人肯定会说所有的ML都是基于实例的。

你可以将SVM视为一种基于实例的学习算法,因为如果你不能明确地表示特征空间,那么你需要记住支持向量,从而在这个空间中识别超平面


如果使用RBF核,决策边界将由每个支持向量周围的高斯凹凸组成,这与使用alpha_i加权支持向量的kNN分类器得到的结果非常接近。

谢谢。但是,当您对测试向量
x
执行分类时,您正在计算
w.x-b
以查看超平面
x
的哪一侧,对吗?
w
中的权重已经过训练以创建超平面,因此支持向量在这一点上是不存在的。如果您可以显式表示
w
,例如,当您使用线性支持向量机或内核时,您可以显式地将数据映射到特征空间中,这是正确的(因此在该特征空间中有一个线性SVM)。如果你能做到这一点,支持向量机就像是一个逻辑回归分类器,你可以根据学习到的超平面的哪一侧来选择新测试点的类别。但通常你不能明确表示特征空间,例如,当使用RBF核时。然后你不能计算
w
,而必须依赖支持向量托尔斯。