Machine learning 特征缩放是否会影响分类器的性能?

Machine learning 特征缩放是否会影响分类器的性能?,machine-learning,scikit-learn,feature-extraction,Machine Learning,Scikit Learn,Feature Extraction,为什么在缩放功能时,分类器的性能平均下降1%F1分数?我希望能提高性能。我正在使用scikit来了解这一点。我是这样做的: scaler = preprocessing.StandardScaler(with_mean=False).fit(X_features) X_features_scaled = scaler.transform(X_features) 请提供缩放前后的数据和指标。它可能是数据形状和模型类型的产物。缩放是通过逐次逼近(如线性回归)收敛的算法的一般辅助工具;或者那些依

为什么在缩放功能时,分类器的性能平均下降1%F1分数?我希望能提高性能。我正在使用scikit来了解这一点。我是这样做的:

scaler = preprocessing.StandardScaler(with_mean=False).fit(X_features)

X_features_scaled =  scaler.transform(X_features)

请提供缩放前后的数据和指标。它可能是数据形状和模型类型的产物。缩放是通过逐次逼近(如线性回归)收敛的算法的一般辅助工具;或者那些依赖于维度扩展的可比效应的,比如k-均值。那些通过直接计算工作的,如线性支持向量机,不太容易受到维度之间的范围变化的影响。数据是文本。我在做分类。我正在使用各种功能,包括tf*idf、词汇和语言功能。我的算法是线性支持向量机。缩放前后的性能分别为.84和.83 F1分数。您的模型训练例程不返回一组有关模型创建的指标吗?我希望——我无论如何都不能流利地阅读它们,但我希望它们能提供关键的线索。我确实看到了您原来的F1数字。请提供缩放前后的数据和指标。它可能是数据形状和模型类型的产物。缩放是通过逐次逼近(如线性回归)收敛的算法的一般辅助工具;或者那些依赖于维度扩展的可比效应的,比如k-均值。那些通过直接计算工作的,如线性支持向量机,不太容易受到维度之间的范围变化的影响。数据是文本。我在做分类。我正在使用各种功能,包括tf*idf、词汇和语言功能。我的算法是线性支持向量机。缩放前后的性能分别为.84和.83 F1分数。您的模型训练例程不返回一组有关模型创建的指标吗?我希望——我无论如何都不能流利地阅读它们,但我希望它们能提供关键的线索。我确实看到了你原来的F1车手。