Machine learning 在sklearn中,huber回归器中的max_iter是什么意思?

Machine learning 在sklearn中,huber回归器中的max_iter是什么意思?,machine-learning,scikit-learn,regression,Machine Learning,Scikit Learn,Regression,我是机器学习的新生。这些天来,我越来越熟悉sklearn中的回归方程。但我根本无法理解Huber回归器中参数max_iter的含义,在互联网上似乎也没有什么相关内容。有人能帮忙吗?来自: 最大值:int,默认值100 scipy.optimize.minimize(method=“L-BFGS-B”)应运行的最大迭代次数 用于Huber回归的优化器L-BFGS-B是一个迭代优化器,这意味着迭代次数max\u iter本身就是一个需要设置的超参数 这绝不是Huber回归所独有的;如果仔细查看sim

我是机器学习的新生。这些天来,我越来越熟悉sklearn中的回归方程。但我根本无法理解Huber回归器中参数
max_iter
的含义,在互联网上似乎也没有什么相关内容。有人能帮忙吗?

来自:

最大值:int,默认值100

scipy.optimize.minimize(method=“L-BFGS-B”)
应运行的最大迭代次数

用于Huber回归的优化器L-BFGS-B是一个迭代优化器,这意味着迭代次数
max\u iter
本身就是一个需要设置的超参数


这绝不是Huber回归所独有的;如果仔细查看simple文档,您会发现subject hyperparameter也存在(还有一个较长的可选优化器列表供您选择)。

谢谢!但最小化方法在Huber回归背后究竟做了什么?它是否计算泰勒级数之类的东西,迭代次数越多意味着越精确@孙晨曦 所有(我的意思是,所有)ML算法都涉及到最小化过程中的一些误差函数。讨论Huber回归的细节可以说超出了你的问题范围(我承认我不熟悉细节)。