Machine learning 交叉验证-一类分类

Machine learning 交叉验证-一类分类,machine-learning,cross-validation,Machine Learning,Cross Validation,我正在尝试执行一个类别分类,这样我在培训期间只有正面数据,而负面数据仅在测试时可用。如果我使用一类支持向量机或任何其他一类方法,使用交叉验证方法估计参数是一个常见的问题,因为在训练阶段我们没有负面数据。我觉得,通过仅使用阳性数据估计参数可能会出现的一个问题是训练期间的“过度拟合”,或者换句话说,如果我们只关心使我们的假阴性率最低的参数,那么在测试期间,我们可能会得到假阴性率为零但假阳性率较高的参数 我的问题是,你能给我推荐一种使用CV的参数估计方法吗?或者参考任何关于这种情况的文章。大多数谷歌搜

我正在尝试执行一个类别分类,这样我在培训期间只有正面数据,而负面数据仅在测试时可用。如果我使用一类支持向量机或任何其他一类方法,使用交叉验证方法估计参数是一个常见的问题,因为在训练阶段我们没有负面数据。我觉得,通过仅使用阳性数据估计参数可能会出现的一个问题是训练期间的“过度拟合”,或者换句话说,如果我们只关心使我们的假阴性率最低的参数,那么在测试期间,我们可能会得到假阴性率为零但假阳性率较高的参数

我的问题是,你能给我推荐一种使用CV的参数估计方法吗?或者参考任何关于这种情况的文章。大多数谷歌搜索和文献综述并没有解决我的问题。为了简化这个问题,许多研究人员假设了一些异常值或人为地生成它们,但在我的例子中,我不能说任何关于负面概念的东西,因为我只知道正面数据是什么样子。
您的反馈将不胜感激。

听起来像是,但还是值得一提的,稍微晚一点。@RogerRowland:谢谢您的努力。我认为这是一个悬而未决的问题,人们要么产生人为的异常值,要么将部分正面数据视为负面数据。前者需要对负类进行强有力的假设,因此我尝试研究后一种方法。@RogerRowland链接不可用:您能更新它们吗?或者说出他们的名字,谢谢!