Machine learning 为什么scikit学习SVM分类器交叉验证如此缓慢?

Machine learning 为什么scikit学习SVM分类器交叉验证如此缓慢?,machine-learning,scikit-learn,svm,cross-validation,Machine Learning,Scikit Learn,Svm,Cross Validation,我试图比较我拥有的数据集上的多个分类器。为了获得分类器的准确度分数,我现在对每个分类器进行10倍交叉验证。除SVM(线性核和rbf核)外,这适用于所有其他核函数。数据的加载方式如下: dataset = pd.read_csv("data/distance_annotated_indels.txt", delimiter="\t", header=None) X = dataset.iloc[:, [5,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,

我试图比较我拥有的数据集上的多个分类器。为了获得分类器的准确度分数,我现在对每个分类器进行10倍交叉验证。除SVM(线性核和rbf核)外,这适用于所有其他核函数。数据的加载方式如下:

dataset = pd.read_csv("data/distance_annotated_indels.txt", delimiter="\t", header=None)

X = dataset.iloc[:, [5,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26]].values
y = dataset.iloc[:, 4].values

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)

from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)
例如,随机林的交叉验证工作正常:

start = time.time()
classifier = RandomForestClassifier(n_estimators = 100, criterion = 'entropy')
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
cv = ShuffleSplit(n_splits=10, test_size=0.2)
scores = cross_val_score(classifier, X, y, cv=10)
print(classification_report(y_test, y_pred))
print("Random Forest accuracy after 10 fold CV: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2) + ", " + str(round(time.time() - start, 3)) + "s")
输出:

             precision    recall  f1-score   support

          0       0.97      0.95      0.96      3427
          1       0.95      0.97      0.96      3417

avg / total       0.96      0.96      0.96      6844

Random Forest accuracy after 10 fold CV: 0.92 (+/- 0.06), 90.842s
然而,对于SVM来说,这个过程需要很长时间(等待了2个小时,仍然没有结果)。sklearn网站并没有让我变得更聪明。我是否应该为SVM分类器做些不同的事情?SVM代码如下所示:

start = time.time()
classifier = SVC(kernel = 'linear')
classifier.fit(X_train, y_train)
y_pred = classifier.predict(X_test)
scores = cross_val_score(classifier, X, y, cv=10)
print(classification_report(y_test, y_pred))
print("Linear SVM accuracy after 10 fold CV: %0.2f (+/- %0.2f)" % (scores.mean(), scores.std() * 2) + ", " + str(round(time.time() - start, 3)) + "s")

如果您有大量样本,则问题的计算复杂性会妨碍您,请参阅

考虑使用
cross\u val\u score
verbose
标志查看更多关于进度的日志。此外,如果
n_作业
设置为值>1(或者如果内存允许,甚至使用所有
n_作业
设置为-1的CPU),您可以通过并行化加快计算速度。可用于评估这些选项


如果性能不好,我会考虑减少<代码> CV < /代码>的值(参见讨论)

,也可以通过改变Max ITER来控制时间。如果它设置为-1,它可以根据溶液空间永远运行。设置一些整数值,比如10000,作为停止条件

另外,首先要标准化您的数据。。支持向量机可以很好地处理标准化数据。