Neural network 在pytorch中使用DataLoader时关于批大小的混淆
我是个新手。 我正在训练一个神经网络,以便在MNIST数据集上进行分类Neural network 在pytorch中使用DataLoader时关于批大小的混淆,neural-network,pytorch,batchsize,Neural Network,Pytorch,Batchsize,我是个新手。 我正在训练一个神经网络,以便在MNIST数据集上进行分类 train\u loader=DataLoader(train\u数据,批量大小=200,shuffle=True) 我很困惑。数据集有60000张图像,我将批量大小设置为6000张,我的模型有30个纪元。 每个历元只能看到6000个图像还是每个历元只能看到10批6000个图像?每次调用数据集迭代器都将返回批量大小为的图像。因此,您将有10个批次,直到耗尽所有60000图像
train\u loader=DataLoader(train\u数据,批量大小=200,shuffle=True)
我很困惑。数据集有60000张图像,我将批量大小设置为6000张,我的模型有30个纪元。
每个历元只能看到6000个图像还是每个历元只能看到10批6000个图像?每次调用数据集迭代器都将返回批量大小为
的图像。因此,您将有10个批次,直到耗尽所有60000
图像