Scikit learn 使用caffe模拟sklearn中的SGDClassizer或LogisticReturnal线性模型

Scikit learn 使用caffe模拟sklearn中的SGDClassizer或LogisticReturnal线性模型,scikit-learn,logistic-regression,caffe,Scikit Learn,Logistic Regression,Caffe,我试图用caffe模拟sklearn中的SGDClassizer和LogisticReturnal线性模型。众所周知,在caffe中,一个“InnerProduct”层加上一个“Softmaxwithloss”层表示逻辑回归Y=Logit(WX+b) 我现在使用sklearn数据集包中的digits数据集作为测试集(所有数据标签对的5/6)和测试集(其余的1/6)。然而,通过SGDclassifer()或LogisticRegression()获得的准确率可以达到近90%,而通过训练后的两层神经

我试图用caffe模拟sklearn中的SGDClassizer和LogisticReturnal线性模型。众所周知,在caffe中,一个“InnerProduct”层加上一个“Softmaxwithloss”层表示逻辑回归
Y=Logit(WX+b)

我现在使用sklearn数据集包中的digits数据集作为测试集(所有数据标签对的5/6)和测试集(其余的1/6)。然而,通过
SGDclassifer()
LogisticRegression()
获得的准确率可以达到近90%,而通过训练后的两层神经网络获得的准确率不能超过30%。这是因为参数设置还是其他原因?他们之间的差距太大了