Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 为什么keras中的model.fit功能会显著增加RAM内存?_Python_Tensorflow_Keras - Fatal编程技术网

Python 为什么keras中的model.fit功能会显著增加RAM内存?

Python 为什么keras中的model.fit功能会显著增加RAM内存?,python,tensorflow,keras,Python,Tensorflow,Keras,我用open_memmap函数加载数据,需要5GB的RAM内存。然后我编译了这个模型,它有参数89268608,并且不需要任何RAM内存。目前我的批量大小为200,输入图像具有形状(300,54,3) 我的问题是,当我调用keras中的model.fit函数时,我的RAM内存从5GB增加到24GB。我的问题是为什么 当我尝试使用不同的批处理大小时,没有任何变化,仍然占用23 GB的RAM 如果有人能告诉我发生了什么我会非常感激 谢谢 Keras'fit方法一次将所有数据加载到内存中,这意味着更改

我用open_memmap函数加载数据,需要5GB的RAM内存。然后我编译了这个模型,它有参数89268608,并且不需要任何RAM内存。目前我的批量大小为200,输入图像具有形状(300,54,3)

我的问题是,当我调用keras中的model.fit函数时,我的RAM内存从5GB增加到24GB。我的问题是为什么

当我尝试使用不同的批处理大小时,没有任何变化,仍然占用23 GB的RAM

如果有人能告诉我发生了什么我会非常感激


谢谢

Keras'
fit
方法一次将所有数据加载到内存中,这意味着更改批处理大小不会影响它占用的RAM。看看设计用于大型数据集的using。

Keras'
fit
方法一次将所有数据加载到内存中,这意味着更改批处理大小不会影响它占用的RAM。请看一看专为大型数据集设计的using。

感谢您的回复!在调用model.fit之前,我已经在RAM中加载了数据。它是否再次加载,所以我在RAM中有两次相同的数据?它不会再次加载。附加内存来自模型本身。模型所需的内存大小取决于您正在实施的网络类型、它们的层、激活等。感谢您的回复!在调用model.fit之前,我已经在RAM中加载了数据。它是否再次加载,所以我在RAM中有两次相同的数据?它不会再次加载。附加内存来自模型本身。模型所需的内存大小取决于您正在实现的网络类型、它们的层、激活等。