Python 3.x 首先应该做什么:自动xgboost模型参数调整(Hyperopt)或功能选择(boruta)
我通过从数据集的不同部分创建的许多小xgboost模型对客户机进行分类。 因为手动支持许多模型很困难,所以我决定通过Hyperopt自动化hyperparameters调优,并通过Boruta自动化特性选择 请告诉我,首先应该做什么:超参数调整还是功能选择?另一方面,这并不重要。 在特征选择之后,特征的数量从2500个减少到100个(实际上,我有50个真实特征和5个分类特征,通过OneHotEncoding变成2400个) 如果需要一些代码,请告诉我。非常感谢。特征选择(FS)可被视为预处理活动,其目的是识别具有低偏差和低方差的特征[1] 同时,超参数优化(HPO)的主要目的是自动化超参数优化过程,并使用户能够将机器学习(ML)模型有效地应用于实际问题[2]。将HPO技术应用于ML模型的一些重要原因如下[3]:Python 3.x 首先应该做什么:自动xgboost模型参数调整(Hyperopt)或功能选择(boruta),python-3.x,xgboost,feature-selection,hyperparameters,hyperopt,Python 3.x,Xgboost,Feature Selection,Hyperparameters,Hyperopt,我通过从数据集的不同部分创建的许多小xgboost模型对客户机进行分类。 因为手动支持许多模型很困难,所以我决定通过Hyperopt自动化hyperparameters调优,并通过Boruta自动化特性选择 请告诉我,首先应该做什么:超参数调整还是功能选择?另一方面,这并不重要。 在特征选择之后,特征的数量从2500个减少到100个(实际上,我有50个真实特征和5个分类特征,通过OneHotEncoding变成2400个) 如果需要一些代码,请告诉我。非常感谢。特征选择(FS)可被视为预处理活动