Python 分类器超参数间的相关性
我想知道两个不同分类器的超参数之间是否存在某种相关性 例如:假设我们在具有最佳超参数的数据集上运行Python 分类器超参数间的相关性,python,machine-learning,scikit-learn,classification,hyperparameters,Python,Machine Learning,Scikit Learn,Classification,Hyperparameters,我想知道两个不同分类器的超参数之间是否存在某种相关性 例如:假设我们在具有最佳超参数的数据集上运行LogisticRegression(通过GridSearch查找),并希望在同一数据集上运行另一个分类器,如SVC(SVM分类器),而不是使用GridSearch查找所有超参数,我们是否可以修正超参数的一些值(或缩小范围以限制GridSearch)的搜索空间 作为一个实验,我使用了scikit learn的分类器,如LogisticRegression,SVS,LinearSVC,SGDClass
LogisticRegression
(通过GridSearch
查找),并希望在同一数据集上运行另一个分类器,如SVC
(SVM
分类器),而不是使用GridSearch
查找所有超参数,我们是否可以修正超参数的一些值(或缩小范围以限制GridSearch
)的搜索空间
作为一个实验,我使用了scikit learn
的分类器,如LogisticRegression
,SVS
,LinearSVC
,SGDClassizer
和Perceptron
对一些众所周知的数据集进行分类。在某些情况下,我能够从经验上看到一些相关性,但并非总是所有数据集都如此
所以请帮我澄清这一点。我认为你不能像这样将不同分类器的不同参数关联在一起。这主要是因为每个分类器的行为不同,因为它有自己的方法,根据自己的方程组调整数据。例如,以具有两个不同内核的
SVC
为例rbf
和sigmoid
。可能是这样的情况,rbf
可以完全适合截距参数C
设置为0.001的数据,而相同数据上的'sigmoid内核可以适合C`值0.00001。两个值也可以相等。然而,你永远不能肯定地说。当你说:
在某些情况下,我能够从经验上看到一些相关性,但并非总是所有数据集都如此
这可能只是巧合。因为这一切都取决于语言和分类器。你不能全局应用它。相关性并不总是等同于因果关系
您可以亲自访问并看到,尽管不同的回归函数具有相同的参数a
,但它们的方程却大不相同,因此在同一数据集上,a
的值可能大不相同