Deep learning 在培训深度学习模型时,每批数据之后增加RAM需求的结果是什么?

Deep learning 在培训深度学习模型时,每批数据之后增加RAM需求的结果是什么?,deep-learning,Deep Learning,我训练了一个深度学习模型,并注意到在每批数据之后RAM的使用量都在增加。我的机器有64GB和60GB交换。对于前几个批,RAM使用量从未超过可用量,但后来所有RAM和交换都用完了,我的进程被终止。我试图通过关闭和打开交换来解决这个问题,假设存储在交换中的数据不是train进程所需要的,但它会导致train进程被终止。这是培养深度学习模式的预期问题吗?你如何解决这个问题

我训练了一个深度学习模型,并注意到在每批数据之后RAM的使用量都在增加。我的机器有64GB和60GB交换。对于前几个批,RAM使用量从未超过可用量,但后来所有RAM和交换都用完了,我的进程被终止。我试图通过关闭和打开交换来解决这个问题,假设存储在交换中的数据不是train进程所需要的,但它会导致train进程被终止。这是培养深度学习模式的预期问题吗?你如何解决这个问题