Image processing 支持向量机在多目标分类中的应用

Image processing 支持向量机在多目标分类中的应用,image-processing,machine-learning,computer-vision,classification,svm,Image Processing,Machine Learning,Computer Vision,Classification,Svm,我正在尝试使用线性支持向量机进行多类对象分类识别。到目前为止,我所了解的主要有两种方法——一种是对allOVA的,另一种是对oneOVO的。 但我很难理解它的实现。我的意思是,我认为使用的步骤是: 首先,特征描述符是从SIFT准备的。所以我有一个128XN的特征向量。 接下来,为了准备一个特定对象类别的SVM分类器模型,我将50张汽车图像作为正训练集,从每个类别中随机抽取50张休息类别的图像,这部分正确吗?。我为所有这些类别准备了这样的模型,比如说其中的5个。 接下来,当我有一个输入图像时,我是

我正在尝试使用线性支持向量机进行多类对象分类识别。到目前为止,我所了解的主要有两种方法——一种是对allOVA的,另一种是对oneOVO的。 但我很难理解它的实现。我的意思是,我认为使用的步骤是:

首先,特征描述符是从SIFT准备的。所以我有一个128XN的特征向量。 接下来,为了准备一个特定对象类别的SVM分类器模型,我将50张汽车图像作为正训练集,从每个类别中随机抽取50张休息类别的图像,这部分正确吗?。我为所有这些类别准备了这样的模型,比如说其中的5个。 接下来,当我有一个输入图像时,我是否需要将图像输入到所有5个模型中,然后检查每个模型的值+1/-1?我很难理解这部分。
在一对所有方法中,您必须检查所有5个模型。然后你就可以做出最有信心的决定。LIBSVM给出了概率估计

在一对一的方法中,你可以占多数。例如,您测试1对2、1对3、1对4和1对5。你把它划分为三分之一。你对其他4门课也这么做。假设其他四个类的值为[0,1,1,2]。因此,第1类获得的次数最多,使该类成为最终类。在这种情况下,您还可以进行总体概率估计。尽最大努力。除非一对中的分类出现严重错误,否则这将起作用。例如,在1对4中,它将4分类为真实类为1,置信度为0.7。就因为这一个决定,你的概率估计总数可能会猛增,并给出错误的结果。这个问题可以通过实验来检验


LIBSVM使用一对一。你可以检查推理。你也可以阅读他们为一对所有分类方法辩护的文章,并得出结论,这不一定比一对一更糟糕。

在一对所有分类方法中,你必须检查所有5种模型。然后你就可以做出最有信心的决定。LIBSVM给出了概率估计

在一对一的方法中,你可以占多数。例如,您测试1对2、1对3、1对4和1对5。你把它划分为三分之一。你对其他4门课也这么做。假设其他四个类的值为[0,1,1,2]。因此,第1类获得的次数最多,使该类成为最终类。在这种情况下,您还可以进行总体概率估计。尽最大努力。除非一对中的分类出现严重错误,否则这将起作用。例如,在1对4中,它将4分类为真实类为1,置信度为0.7。就因为这一个决定,你的概率估计总数可能会猛增,并给出错误的结果。这个问题可以通过实验来检验


LIBSVM使用一对一。你可以检查推理。你也可以阅读一篇文章,其中他们为一对所有分类方法辩护,并得出结论,这并不一定比一对一更糟糕。

简言之,你的积极训练样本总是一样的。在一对一中,你训练n个分类器,分别从每个负类中抽取负样本。在“一对所有”中,您将所有阴性样本聚集在一起,并训练一个分类器。。前一种方法的问题是,必须考虑所有n个结果来决定类。后一种方法的问题是,将所有负对象类集中在一起可能会创建一个难以处理和分析的非齐次类。

简而言之,您的正训练样本总是相同的。在一对一中,你训练n个分类器,分别从每个负类中抽取负样本。在“一对所有”中,您将所有阴性样本聚集在一起,并训练一个分类器。。前一种方法的问题是,必须考虑所有n个结果来决定类。后一种方法的问题是,将所有负对象类集中创建可能会创建难以处理和分析的非齐次类