Machine learning 在哪里最好使用线性核的支持向量机?

Machine learning 在哪里最好使用线性核的支持向量机?,machine-learning,classification,svm,mathematical-optimization,Machine Learning,Classification,Svm,Mathematical Optimization,我目前正在研究支持向量机,想知道线性核支持向量机的应用是什么。在我看来,它一定是用来解决线性优化问题的东西。这是正确的吗 谢谢你的回答 带线性核的支持向量机确实是最简单的分类器之一,但如果我们在数据分布是线性可分离的情况下获得非常高的性能精度,这也就不足为奇了 从这个意义上说,我认为你的意见是正确的。然而,您确实需要认识到SVM的强大之处在于使用更复杂的非线性核(例如RBF)进行扩展 一个链接。带线性核的支持向量机的应用是执行分类或回归。当存在线性决策边界或数据的线性拟合时,它将表现得最好,因此

我目前正在研究支持向量机,想知道线性核支持向量机的应用是什么。在我看来,它一定是用来解决线性优化问题的东西。这是正确的吗


谢谢你的回答

带线性核的支持向量机确实是最简单的分类器之一,但如果我们在数据分布是线性可分离的情况下获得非常高的性能精度,这也就不足为奇了

从这个意义上说,我认为你的意见是正确的。然而,您确实需要认识到SVM的强大之处在于使用更复杂的非线性核(例如RBF)进行扩展


一个链接。

带线性核的支持向量机的应用是执行分类或回归。当存在线性决策边界或数据的线性拟合时,它将表现得最好,因此线性核。

线性核有一些优点,但可能(在我看来)最重要的一点是,与非线性核(如RBF)相比,通常训练速度要快得多


如果您的数据集大小是以GB为单位的,那么您将看到训练时间差异是巨大的(分钟与小时)

还有一点需要补充:线性支持向量机比非线性支持向量机更不容易过度拟合。您需要根据您的情况决定选择哪个内核:如果与训练样本相比,您的特性数量确实很大,那么只需使用线性内核;如果您的特性数量很小,但训练样本很大,那么您可能还需要线性内核,但尝试添加更多特性;如果您的特征数很小(10^0-10^3),而样本数处于中间(10^1-10^4),则使用高斯核会更好


据我所知,具有线性核的支持向量机通常可以与logistic回归相比较。

线性核最适合应用于线性可分离数据。假设您的数据集只有2个功能和2个类。如果使用X和Y这两个特性在图表中绘制数据集样本,您将能够看到来自不同类的样本彼此之间的位置

如果很容易划出一条线来分隔这两个类,那么线性内核非常适合这项工作:

当然,这适用于渲染多维空间的许多功能,而不仅仅是两个。但是,如果数据不是线性可分的,则需要使用诸如RBF或多项式之类的核将样本映射到另一个维度空间

此外,由于线性核不执行任何映射,因此通常比使用其他核训练分类器更快