Machine learning 感知器-统计一致性

Machine learning 感知器-统计一致性,machine-learning,statistics,classification,perceptron,Machine Learning,Statistics,Classification,Perceptron,若训练集是线性可分的,那个么感知器最终会找到线性分类器来分离风险/损失为0的数据。但如果我们相信数据是可分离的,但它们不是。在这种情况下,如果我们让感知器在这样的数据上运行,并且示例数趋于无穷大,那么在这样的限制下,误差值会变为0吗?我很确定误差有一个渐近值,它可能是线性决策边界的最小损失——也就是说,感知器发现(我在这里推测——你会想确认它)对于非线性可分的类,最佳线性决策边界是一些非零值。stats.stackexchange.com的后续信息。另外,你可能想准确地解释你所说的感知器是什么意

若训练集是线性可分的,那个么感知器最终会找到线性分类器来分离风险/损失为0的数据。但如果我们相信数据是可分离的,但它们不是。在这种情况下,如果我们让感知器在这样的数据上运行,并且示例数趋于无穷大,那么在这样的限制下,误差值会变为0吗?

我很确定误差有一个渐近值,它可能是线性决策边界的最小损失——也就是说,感知器发现(我在这里推测——你会想确认它)对于非线性可分的类,最佳线性决策边界是一些非零值。stats.stackexchange.com的后续信息。另外,你可能想准确地解释你所说的感知器是什么意思,因为它是一个专业术语,如果每个人都理解你所指的内容,那么回答这个问题的人不一定都理解它。@RobertDodier直觉上我也有同感。但一个关键的区别是,我认为风险值将为零(在极限范围内),因为如果示例的数量是无限的,那么我认为感知器将找到这样一个决策边界,其中错误分类的案例是可能的最小数量,并且大小与示例的数量无关。虽然我想知道是否总是这样。如果不是这样,那么问题就更复杂了,因为统计一致性的定义要求风险为零。但在某种程度上,最好的风险也是一致的。随着案例数量的增加,错误分类案例的数量也会增加,对吗?顺便问一下,关于这个主题的进一步讨论应该转到stats.stackexchange.com。是否可以以某种方式移动线程,或者我必须在此处删除它并在此处重新开始?另外,如果我可以再跟进一次,随着错误分类的累积,您可以随时更改预测规则。错误数的增长速度将比示例数的增长速度慢得多。如果我们从10个错误到20个错误,我们将更改规则,并可以得到例如11个错误。我认为可能有一种方法,但这只是我的直觉,对于“无限”的例子,我们可以选择这样的预测规则,即错误的数量可以“忽略不计”,因此可以限制为0,但这取决于它是否适用于所有情况。我的建议是把这个问题留在这里,转到其他论坛(无论你选择哪一个)根据你目前对问题的理解,开始一个新问题。顺便说一句,如果错误的比例随着示例数的增加而变为零,而没有限制,这意味着如果我们有足够的数据,我们可以构建近乎完美的分类规则。为什么不这样呢?想一想。