Tensorflow 来自目录的image\u dataset\u是否一次将所有图像加载到内存中?
我是机器学习新手,我正在尝试创建一个图像分类器,我想加载数据集,但我想这样做,它不会占用我所有的内存。阅读tensorflow文档,它说数据集的迭代是以流式方式进行的,我想知道来自目录的tf.keras.preprocessing.image\u dataset\u是否会立即加载图像,或者一次“流”一批图像。如果没有,我想让生成器一次读取一个文件名,并在批处理准备好keras.utils.Sequence时加载它们Tensorflow 来自目录的image\u dataset\u是否一次将所有图像加载到内存中?,tensorflow,keras,Tensorflow,Keras,我是机器学习新手,我正在尝试创建一个图像分类器,我想加载数据集,但我想这样做,它不会占用我所有的内存。阅读tensorflow文档,它说数据集的迭代是以流式方式进行的,我想知道来自目录的tf.keras.preprocessing.image\u dataset\u是否会立即加载图像,或者一次“流”一批图像。如果没有,我想让生成器一次读取一个文件名,并在批处理准备好keras.utils.Sequence时加载它们 tf.keras.preprocessing.image_dataset_fro
tf.keras.preprocessing.image_dataset_from_directory(
directory, labels='inferred', label_mode='int', class_names=None,
color_mode='rgb', batch_size=32, image_size=(256, 256), shuffle=True, seed=None,
validation_split=None, subset=None, interpolation='bilinear', follow_links=False
)
如果定义批次大小,它将根据批次大小生成数据
,否则默认批次大小为32
在普通计算机中,不可能在一个批次中加载整个数据。有关更多详细信息,请阅读。因此,它一次只从目录中加载批次?因此,如果我们要训练1000多条记录的数据,我们如何一次加载1000张图像。。