Python 如何保存占用较少内存的机器学习模型

Python 如何保存占用较少内存的机器学习模型,python,machine-learning,scikit-learn,random-forest,joblib,Python,Machine Learning,Scikit Learn,Random Forest,Joblib,我正在训练一个RandomForest分类器,它有大约580mb的大数据集,需要30多分钟才能适应。 现在,当我尝试使用joblib保存模型时,保存的模型占用大约11.1gb的空间。 这是正常的还是我可以在部署模型时更有效地节省空间 是否值得使用占用这么多空间的模型,因为我在相同数据上有一个决策树模型,占用278mb的空间,并且它的准确度仅比它低2%(91%) 这是模型保存代码 from sklearn.externals import joblib # Save the model as

我正在训练一个RandomForest分类器,它有大约580mb的大数据集,需要30多分钟才能适应。 现在,当我尝试使用joblib保存模型时,保存的模型占用大约11.1gb的空间。 这是正常的还是我可以在部署模型时更有效地节省空间

是否值得使用占用这么多空间的模型,因为我在相同数据上有一个决策树模型,占用278mb的空间,并且它的准确度仅比它低2%(91%)

这是模型保存代码

from sklearn.externals import joblib  
# Save the model as a pickle in a file 
joblib.dump(Random_classifier, '/content/drive/My Drive/Random_classifier.pkl') 

我是一个新手,所以不要投票来结束这个问题,请留下评论。我愿意尽快编辑这个问题。

随机森林分类方法在内存中非常昂贵。 尝试降低决策树的数量,可能会减少一些内存。 看起来你的数据集也很大,所以我认为它似乎符合你的权重大小。
另外,我知道有一种pickle方法可以节省权重,我建议也去看看。

随机森林分类方法在内存中非常昂贵。 尝试降低决策树的数量,可能会减少一些内存。 看起来你的数据集也很大,所以我认为它似乎符合你的权重大小。
另外,我知道有一种pickle方法可以节省重量,我也建议你去看看。

Avivzx,所以你建议用pickle代替joblib,但它们与我在Avivzx的许多地方(站点)读到的非常相似,所以你建议用pickle代替joblib,但它们与我在许多地方(站点)读到的非常相似