Machine learning 我可以使用函数实现分类器吗?

Machine learning 我可以使用函数实现分类器吗?,machine-learning,classification,Machine Learning,Classification,我学习了不同的分类技术,如概率分类器等,并突然提出了这样一个问题:为什么我们不能实现一个二元分类器作为所有属性的回归函数,并根据函数的输出进行分类,比如说,如果输出小于某个值,它就属于a类,B班的其他同学。与概率方法相比,这种方法有什么限制吗?你可以这样做,而且在实践中经常这样做,例如在。它甚至不限于二进制类。与概率方法相比,没有固有的局限性,尽管你应该记住,两者都是根本不同的方法,很难比较。我认为你在分类上有一些误解。无论使用哪种分类器(svm或逻辑回归),都可以将输出模型视为 f(x)>b=

我学习了不同的分类技术,如概率分类器等,并突然提出了这样一个问题:为什么我们不能实现一个二元分类器作为所有属性的回归函数,并根据函数的输出进行分类,比如说,如果输出小于某个值,它就属于a类,B班的其他同学。与概率方法相比,这种方法有什么限制吗?

你可以这样做,而且在实践中经常这样做,例如在。它甚至不限于二进制类。与概率方法相比,没有固有的局限性,尽管你应该记住,两者都是根本不同的方法,很难比较。

我认为你在分类上有一些误解。无论使用哪种分类器(svm或逻辑回归),都可以将输出模型视为 f(x)>b==>正 f(x)负


这适用于概率模型和非概率模型。事实上,这是与风险最小化相关的事情,风险最小化会自然产生截止分支。

是的,这是可能的。例如,a就是这样做的

然而,它的用途仅限于。但是,一般来说,它们的多重组合可以解决任意复杂的问题


另一种机器学习技术也以类似的方式工作。它首先将输入数据转换成一些高维空间,然后通过线性函数将其分离。

我在谷歌上搜索了一下,发现我说的可能是预测值与分类器的比较。那么你的意思是它们是相同的,预测因子是连续的,而分类器更多的是离散型的?不确定你的意思。在这个层次上,预测器和分类器之间实际上没有区别。的确,一些模型有一组离散的可能输出,而另一些模型可以预测连续值。对于分类,您将对后一种情况下的输出进行离散化,并最终得到基本相同的结果。