Neural network 在pytorch中使用DataLoader时关于批大小的混淆

Neural network 在pytorch中使用DataLoader时关于批大小的混淆,neural-network,pytorch,batchsize,Neural Network,Pytorch,Batchsize,我是个新手。 我正在训练一个神经网络,以便在MNIST数据集上进行分类 train\u loader=DataLoader(train\u数据,批量大小=200,shuffle=True) 我很困惑。数据集有60000张图像,我将批量大小设置为6000张,我的模型有30个纪元。 每个历元只能看到6000个图像还是每个历元只能看到10批6000个图像?每次调用数据集迭代器都将返回批量大小为的图像。因此,您将有10个批次,直到耗尽所有60000图像

我是个新手。 我正在训练一个神经网络,以便在MNIST数据集上进行分类

train\u loader=DataLoader(train\u数据,批量大小=200,shuffle=True)

我很困惑。数据集有60000张图像,我将批量大小设置为6000张,我的模型有30个纪元。
每个历元只能看到6000个图像还是每个历元只能看到10批6000个图像?

每次调用数据集迭代器都将返回批量大小为
的图像。因此,您将有10个批次,直到耗尽所有
60000
图像