Python 为什么XGBoost拟合速度慢,即使数据集很小?

Python 为什么XGBoost拟合速度慢,即使数据集很小?,python,machine-learning,data-science,xgboost,Python,Machine Learning,Data Science,Xgboost,作为Python机器学习的新手,我正在尝试训练一个XGBoost模型来预测iris数据集() 我目前专注于XGBoost,试图在这方面获得一些经验。 我的第一个模型列车,占数据集的66%,仅2个功能,从未完成(20分钟后中断)。我也尝试过用它制作一个非常小的样本(5个样本,2个特性),但仍然无法完成 环境详情: MacBook Pro 2017,通过Anaconda Navigator 1.9.7安装MacOS 10.14.5、Python 3.7.3 #从上面的Kaggle链接下载的文件 ir

作为Python机器学习的新手,我正在尝试训练一个XGBoost模型来预测iris数据集()

我目前专注于XGBoost,试图在这方面获得一些经验。 我的第一个模型列车,占数据集的66%,仅2个功能,从未完成(20分钟后中断)。我也尝试过用它制作一个非常小的样本(5个样本,2个特性),但仍然无法完成

环境详情: MacBook Pro 2017,通过Anaconda Navigator 1.9.7安装MacOS 10.14.5、Python 3.7.3

#从上面的Kaggle链接下载的文件
iris=pd.read\u csv('iris.csv'))
iris['Species']=iris.apply(λr:r['Species'][5:],轴=1)
特征=虹膜[['PetalLengthCm','PetalWidthCm']]
物种,标签=pd.因子分解(虹膜[‘物种])
X_序列,X_测试,y_序列,y_测试=序列测试分割(特征,物种,测试大小=0.33,随机状态=42)
xgb_x_train=x_train.head()
xgb_y_列=y_列[:5]
打印(xgb_x_列形状)
打印(len(xgb_y_系列))
xgbclf=xgb.XGBClassifier()
xgbclf.fit(xgb_x_系列、xgb_y_系列)
我希望上面的代码能够在“合理”的时间内(即少于4-5分钟)生成一个经过训练的模型(由于只使用了5个样本,所以没有进行微调),但拟合阶段永远不会完成

我是不是做错了什么,可能会导致这种高拟合时间

谢谢你的建议!
Mattia

也许你没有正确安装Xgboost(我曾经在windows中安装过一次),我建议尝试使用
conda install
重新安装

但对于你的情况,你可以尝试在谷歌colab上上传你的代码(他们给你一个免费的GPU,所有的东西都已经安装好了)。这个训练应该只需要几秒钟

(5, 2)
5