Python sklearn SGDClassizer logloss在迭代858时突然出现
我使用sklearn的SGDClassizer和对数损失函数来执行逻辑回归Python sklearn SGDClassizer logloss在迭代858时突然出现,python,machine-learning,scikit-learn,classification,logistic-regression,Python,Machine Learning,Scikit Learn,Classification,Logistic Regression,我使用sklearn的SGDClassizer和对数损失函数来执行逻辑回归 model = sklearn.linear_model.SGDClassifier(random_state=0, verbose=1,loss='log',n_iter=iterat) result = model.fit(X, y) 我将verbose设置为1以查看错误的外观 该模型似乎要收敛于迭代858(logloss=0.1562),但logloss突然再次上升到一个非常高的值 纪元856 标准值:
model = sklearn.linear_model.SGDClassifier(random_state=0, verbose=1,loss='log',n_iter=iterat)
result = model.fit(X, y)
我将verbose设置为1以查看错误的外观
该模型似乎要收敛于迭代858(logloss=0.1562),但logloss突然再次上升到一个非常高的值
纪元856
标准值:5.19,NNZs:104,偏差:-1.158471,T:428000000,平均损失:0.156228
总训练时间:2186.96秒
纪元857
标准值:5.19,NNZ:104,偏差:-1.158562,T:4285000000,平均损失:0.156217
总训练时间:2189.51秒
纪元858
标准值:5.19,NNZs:104,偏差:-1.158651,T:4290000000,平均损失:0.156205
总训练时间:2192.06秒
纪元859
标准值:5.19,NNZs:104,偏差:-1.158744,T:32704,平均损耗:20512.848380
总训练时间:2194.61秒
纪元860
标准值:5.19,NNZs:104,偏差:-1.158834,T:5032704,平均损失:133.443993
总训练时间:2197.16秒
纪元861
标准值:5.19,NNZs:104,偏差:-1.158925,T:10032704,平均损耗:67.012436
总训练时间:2199.71秒
有人知道为什么会这样吗?提前感谢没有数据很难回答。更重要的问题是:你知道iter的意思吗?(epochs!;我认为您在这里有点粗放,这可能是这种行为的一个原因)为什么要使用sgd而不是经典的logreg优化方法?(数据大小?当一次迭代在2秒内完成时,看起来没有那么大)没有数据很难回答。更重要的问题是:你知道iter的意思吗?(epochs!;我认为您在这里有点粗放,这可能是这种行为的一个原因)为什么要使用sgd而不是经典的logreg优化方法?(当一次迭代在2秒内完成时,数据大小看起来没有那么大)