Python 设置XGBoost提前停止的Tol

Python 设置XGBoost提前停止的Tol,python,machine-learning,xgboost,Python,Machine Learning,Xgboost,我正在使用XGBoost并提前停止。在经历了大约1000个时代之后,该模型仍在改进,但改进幅度非常小。即: clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10) 是否可以设置提前停车的“tol”?即:不触发提前停止所需的最低改进水平 Tol是SKLearn模型中的一个常见参数,如MLP分类器和二次判别分析。多谢各位 我认为xgboost中没有

我正在使用XGBoost并提前停止。在经历了大约1000个时代之后,该模型仍在改进,但改进幅度非常小。即:

 clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10)
是否可以设置提前停车的“tol”?即:不触发提前停止所需的最低改进水平


Tol是SKLearn模型中的一个常见参数,如MLP分类器和二次判别分析。多谢各位

我认为xgboost中没有参数
tol
,但您可以将
early\u stopping\u round
设置得更高。此参数意味着,如果测试集的性能在
提前停止\u轮
时间内没有改善,则测试集停止。如果您知道在1000个时代之后,您的模型仍在改进,但速度非常缓慢,请将
early\u stopping\u round
设置为50,例如,这样对于性能上的微小变化将更加“宽容”

在XGBoost Github的回购协议中,
sklearn
h2o
等包装器似乎已经具备了这一功能,
XGBoost
本身仍然缺少
停止容差
超参数


让我们投票加速一点,好吗?

你的意思是说将
提前停止
设置得更低(而不是更高)?低值将比高值更早终止。