Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/319.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python sklearn SGDClassizer logloss在迭代858时突然出现_Python_Machine Learning_Scikit Learn_Classification_Logistic Regression - Fatal编程技术网

Python sklearn SGDClassizer logloss在迭代858时突然出现

Python sklearn SGDClassizer logloss在迭代858时突然出现,python,machine-learning,scikit-learn,classification,logistic-regression,Python,Machine Learning,Scikit Learn,Classification,Logistic Regression,我使用sklearn的SGDClassizer和对数损失函数来执行逻辑回归 model = sklearn.linear_model.SGDClassifier(random_state=0, verbose=1,loss='log',n_iter=iterat) result = model.fit(X, y) 我将verbose设置为1以查看错误的外观 该模型似乎要收敛于迭代858(logloss=0.1562),但logloss突然再次上升到一个非常高的值 纪元856 标准值:

我使用sklearn的SGDClassizer和对数损失函数来执行逻辑回归

 model = sklearn.linear_model.SGDClassifier(random_state=0, verbose=1,loss='log',n_iter=iterat)    
result = model.fit(X, y)
我将verbose设置为1以查看错误的外观

该模型似乎要收敛于迭代858(logloss=0.1562),但logloss突然再次上升到一个非常高的值

纪元856 标准值:5.19,NNZs:104,偏差:-1.158471,T:428000000,平均损失:0.156228 总训练时间:2186.96秒

纪元857 标准值:5.19,NNZ:104,偏差:-1.158562,T:4285000000,平均损失:0.156217 总训练时间:2189.51秒

纪元858 标准值:5.19,NNZs:104,偏差:-1.158651,T:4290000000,平均损失:0.156205 总训练时间:2192.06秒

纪元859 标准值:5.19,NNZs:104,偏差:-1.158744,T:32704,平均损耗:20512.848380 总训练时间:2194.61秒

纪元860 标准值:5.19,NNZs:104,偏差:-1.158834,T:5032704,平均损失:133.443993 总训练时间:2197.16秒

纪元861 标准值:5.19,NNZs:104,偏差:-1.158925,T:10032704,平均损耗:67.012436 总训练时间:2199.71秒


有人知道为什么会这样吗?提前感谢

没有数据很难回答。更重要的问题是:你知道iter的意思吗?(epochs!;我认为您在这里有点粗放,这可能是这种行为的一个原因)为什么要使用sgd而不是经典的logreg优化方法?(数据大小?当一次迭代在2秒内完成时,看起来没有那么大)没有数据很难回答。更重要的问题是:你知道iter的意思吗?(epochs!;我认为您在这里有点粗放,这可能是这种行为的一个原因)为什么要使用sgd而不是经典的logreg优化方法?(当一次迭代在2秒内完成时,数据大小看起来没有那么大)