Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/328.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如果我做了不止一个历元,为什么我的keras模型会终止并冻结我的笔记本?_Python_Keras - Fatal编程技术网

Python 如果我做了不止一个历元,为什么我的keras模型会终止并冻结我的笔记本?

Python 如果我做了不止一个历元,为什么我的keras模型会终止并冻结我的笔记本?,python,keras,Python,Keras,我用10个批量完成了1个nb_epoch,并且成功地完成了。准确率是绝对可怕的,达到了惊人的27%。我想让它在多个历元上运行,看看准确率是否会,理想情况下,超过80%左右,但如果我试图让它在多个历元上运行,它会一直冻结我的Jupyter笔记本。我怎样才能解决这个问题 我的后端是Theano,只是为了澄清 性能和批量大小之间肯定存在相关性。我试着做batch_size=1,花了我一天中12秒可怕、令人畏惧、不可原谅的时间来做1个历代。历代都需要时间,有时看起来像是冻结了,但它仍然在运行,如果你等得

我用10个批量完成了1个
nb_epoch
,并且成功地完成了。准确率是绝对可怕的,达到了惊人的27%。我想让它在多个历元上运行,看看准确率是否会,理想情况下,超过80%左右,但如果我试图让它在多个历元上运行,它会一直冻结我的Jupyter笔记本。我怎样才能解决这个问题

我的后端是Theano,只是为了澄清


性能和批量大小之间肯定存在相关性。我试着做batch_size=1,花了我一天中12秒可怕、令人畏惧、不可原谅的时间来做1个历代。

历代都需要时间,有时看起来像是冻结了,但它仍然在运行,如果你等得够久,它就会结束。增加批处理大小可以使其更快地贯穿各个时代。

您可能需要研究更多因素。 查看系统资源,例如CPU、内存、磁盘IO。(如果使用linux,请运行
sar
命令)


对我来说,冻结的笔记本还有另一个问题,那就是内存不足。

在终端中工作是否更好?如果可能的话,请显示部分或全部代码。至少是fit()部分实际上没有什么问题。我只是变得不耐烦了,被告知网站没有反应。好吧,因为有时候验证步骤(在一个训练时期之后)需要很多时间。。。它没有显示验证的处理过程,因此您只需等待或减少有效集。我没有验证步骤。我得调查一下。非常感谢。