Statistics 支持向量机中的参数C&;寻找最佳参数的标准

Statistics 支持向量机中的参数C&;寻找最佳参数的标准,statistics,svm,Statistics,Svm,支持向量机中的成本参数C是什么意思?我的意思是,如果C很大,是否意味着“我不能容忍错误的分类” 在实验中找到最佳参数时,我如何确定范围和步长 顺便问一下,决定哪个参数更好的标准是什么?交叉验证的错误数还是支持向量机的支持向量数 -C表示您如何容忍分类错误(松弛变量)。为了找到更好的模型,我想我们只需设置一个较大的阈值并进行交叉验证。-C表示如何容忍分类错误(slack变量)。为了找到更好的模型,我想我们只需设置一个较大的阈值并进行交叉验证。什么是C? SVM训练解决的优化问题有两个术语: 有利于

支持向量机中的成本参数C是什么意思?我的意思是,如果C很大,是否意味着“我不能容忍错误的分类”

在实验中找到最佳参数时,我如何确定范围和步长


顺便问一下,决定哪个参数更好的标准是什么?交叉验证的错误数还是支持向量机的支持向量数

-C表示您如何容忍分类错误(松弛变量)。为了找到更好的模型,我想我们只需设置一个较大的阈值并进行交叉验证。

-C表示如何容忍分类错误(slack变量)。为了找到更好的模型,我想我们只需设置一个较大的阈值并进行交叉验证。

什么是C?

SVM训练解决的优化问题有两个术语:

  • 有利于“更简单”权重的正则化术语
  • 确保权重正确分类训练数据点的损失项
  • C只是这些术语重要性之间的平衡。如果C高,你给(2)很大的权重,如果C低,你给(1)很大的权重

    如果我只想得到准确的结果,为什么不将C设置得非常高?

    术语(1)防止过度拟合(非常擅长分类训练数据,但非常不擅长分类看不见的测试数据)

    好的,我只想要准确的结果,为什么我不把C设得很低呢?

    术语(2)确保训练优化关注训练数据,您不仅需要“简单”(在L2意义上)权重,还需要能够正确分类训练数据的简单权重

    摘要:


    训练支持向量机是两项的平衡。C是损失项相对于正则化项的相对重要性。

    什么是C?

    SVM训练解决的优化问题有两个术语:

  • 有利于“更简单”权重的正则化术语
  • 确保权重正确分类训练数据点的损失项
  • C只是这些术语重要性之间的平衡。如果C高,你给(2)很大的权重,如果C低,你给(1)很大的权重

    如果我只想得到准确的结果,为什么不将C设置得非常高?

    术语(1)防止过度拟合(非常擅长分类训练数据,但非常不擅长分类看不见的测试数据)

    好的,我只想要准确的结果,为什么我不把C设得很低呢?

    术语(2)确保训练优化关注训练数据,您不仅需要“简单”(在L2意义上)权重,还需要能够正确分类训练数据的简单权重

    摘要:


    训练支持向量机是两项的平衡。C是损失项相对于正则化项的相对重要性。

    这样认为。SVM中的C参数是错误项的惩罚参数。 可以认为它是算法必须满足的正确分类程度或SVM必须满足的优化程度。 对于较大的C值,SVM优化器无法对任何单个点进行错误分类。是的,正如您所说的,SVM优化器对更高的C值的容忍度很高。但是对于较小的C,SVM优化器至少允许一定程度的自由度,以满足最佳超平面

    SVC(C=1.0,kernel='rbf',degree=3,gamma='auto')
    -->低容错rbf内核

    SVC(C=1000.0,kernel='linear',degree=3,gamma='auto')
    -->高容错线性内核


    请参阅:

    这边走。SVM中的C参数是错误项的惩罚参数。 可以认为它是算法必须满足的正确分类程度或SVM必须满足的优化程度。 对于较大的C值,SVM优化器无法对任何单个点进行错误分类。是的,正如您所说的,SVM优化器对更高的C值的容忍度很高。但是对于较小的C,SVM优化器至少允许一定程度的自由度,以满足最佳超平面

    SVC(C=1.0,kernel='rbf',degree=3,gamma='auto')
    -->低容错rbf内核

    SVC(C=1000.0,kernel='linear',degree=3,gamma='auto')
    -->高容错线性内核

    参考: