Machine learning 基于单特征径向基核支持向量机的二值分类

Machine learning 基于单特征径向基核支持向量机的二值分类,machine-learning,svm,Machine Learning,Svm,是否对使用单一特征训练的径向基核支持向量机有任何解释(图形或其他)?我可以在二维空间中看到效果(结果是分离边界是弯曲的,而不是线性的) 如果原始数据只有一个特征,我很难想象这会是什么样子。在这种情况下,边界线会是什么样子?它会是一条在两种不同颜色之间来回切换的线(每个类别一种颜色).在一维中,除了支持向量机被过度杀死之外,没有什么特别的事情发生。在一维中,您的数据将是数字,决策边界将只是有限的数字集,表示一个类的有限区间集,以及classi的有限区间集另一个 事实上,R^2中的决策边界实际上是一

是否对使用单一特征训练的径向基核支持向量机有任何解释(图形或其他)?我可以在二维空间中看到效果(结果是分离边界是弯曲的,而不是线性的)


如果原始数据只有一个特征,我很难想象这会是什么样子。在这种情况下,边界线会是什么样子?

它会是一条在两种不同颜色之间来回切换的线(每个类别一种颜色).在一维中,除了支持向量机被过度杀死之外,没有什么特别的事情发生。

在一维中,您的数据将是数字,决策边界将只是有限的数字集,表示一个类的有限区间集,以及classi的有限区间集另一个


事实上,R^2中的决策边界实际上是一组点,对于这些点,支持向量中高斯分布的加权和(其中alpha_i是这些权重)等于b(截距/阈值项)。您可以实际绘制此分布(现在在3d中).类似地,在1d中,你会得到一个类似的分布,可以在2d中绘制,决策将基于此分布大于/小于b。

此视频显示了内核映射中发生的情况,它不使用RBF内核,但其思想是相同的:

至于1D的情况,没有太大的区别,应该是这样的:


hi!假设每个功能都是一个维度,那么“在二维中可视化效果”是什么意思?单个功能的可视化不是一条简单的线,斜杠所在的位置有一个阈值吗?
这个问题似乎与主题无关,因为它是关于统计的,发布在这里: