Machine learning 如何更新Logistic回归模型?

Machine learning 如何更新Logistic回归模型?,machine-learning,scikit-learn,logistic-regression,machine-learning-model,Machine Learning,Scikit Learn,Logistic Regression,Machine Learning Model,我训练了一个逻辑回归模型。现在我必须用一组新的训练数据更新(部分拟合)模型。有可能吗?您不能在逻辑回归上使用部分拟合 但你可以: 使用warm\u start=True,这将重用上一次调用的解决方案以适应初始化,从而加快收敛速度 将sgdclassizer与loss='log'一起使用,它相当于LogisticRegression,并且支持部分拟合 注意部分安装和热启动之间的区别。这两种方法都从以前的模型开始并对其进行更新,但是partial_-fit仅略微更新模型,而warm_-start

我训练了一个逻辑回归模型。现在我必须用一组新的训练数据更新(部分拟合)模型。有可能吗?

不能在
逻辑回归上使用
部分拟合

但你可以:

  • 使用
    warm\u start=True
    ,这将重用上一次调用的解决方案以适应初始化,从而加快收敛速度
  • sgdclassizer
    loss='log'
    一起使用,它相当于
    LogisticRegression
    ,并且支持
    部分拟合
注意
部分安装
热启动
之间的区别。这两种方法都从以前的模型开始并对其进行更新,但是
partial_-fit
仅略微更新模型,而
warm_-start
在新的训练数据上一直收敛,忘记了以前的模型<代码>预热启动
仅用于加快收敛速度

另见:

热启动

当在同一数据集上重复拟合估计器时,但对于多个参数值(如在网格搜索中找到性能最大化的值),可以重用从先前参数值中学习到的模型方面,从而节省时间。当
warm\u start
为true时,在随后调用
fit
时,将使用现有的fitted model属性an初始化新模型

请注意,这仅适用于某些模型和某些参数,甚至某些参数值阶数。例如,
warm_start
可以在构建随机林时使用,以向林中添加更多的树(增加
n_估计器
),但不减少其数量

partial_-fit
还保留了调用之间的模型,但有所不同:使用
warm_-start
时,参数会发生变化,并且数据(或多或少)会在调用之间保持不变;使用
partial_fit
,小批量数据更改和模型参数保持不变

在某些情况下,您需要使用
warm\u start
来适应不同但密切相关的数据。例如,一开始可能适合数据的子集,然后对完整数据集上的参数搜索进行微调。对于分类,调用
fit
warm\u start
序列中的所有数据必须包括每个类的样本

__

部分贴合

便于以在线方式拟合估计器。与
fit
不同,反复调用
partial_fit
不会清除模型,而是根据提供的数据更新模型。提供给
partial_fit
的数据部分可称为小批量。每个小批量必须具有一致的形状等

partial_-fit
也可用于核心外学习,但通常仅限于在线学习的情况,即模型在每次partial_-fit后可用,无需单独处理即可完成模型
cluster.Birch
引入了一种约定,即调用
partial_-fit(X)
将生成一个未最终确定的模型,但是可以通过调用
partial_-fit()
来最终确定模型,即不需要再传递一个小批量

通常,不应在调用
部分拟合
之间修改估计器参数,尽管
部分拟合
应验证估计器参数以及新的小批量数据。相反,
warm_start
用于重复拟合具有相同数据但参数不同的同一估计器


一些Sklearn估计器实现了
部分拟合
方法。更多信息。非常感谢您的回复,目前我正在使用SGD分类器,但该分类器的问题是,对于相同的数据集,每次都会给我不同的精度级别。这是由于
sgdclassizer
的随机解算器造成的。要获得确定性行为,您可以在
random\u状态
参数中放入一个整数。