是为tensorflow中的每个GPU指定的批处理大小
在Tensorflow模型示例(slim)中,当我们指定批量大小时,是每个GPU还是GPU之间的总批量大小是为tensorflow中的每个GPU指定的批处理大小,tensorflow,models,Tensorflow,Models,在Tensorflow模型示例(slim)中,当我们指定批量大小时,是每个GPU还是GPU之间的总批量大小 python train\u image\u classifier.py--dataset\u name=flowers--dataset\u split\u name=train--dataset\u dir=/tmp/flowers data--model\u name=inception\u v3--log\u every\u n\u steps=10--batch\u size=6
python train\u image\u classifier.py--dataset\u name=flowers--dataset\u split\u name=train--dataset\u dir=/tmp/flowers data--model\u name=inception\u v3--log\u every\u n\u steps=10--batch\u size=64--max\u number\u steps=100--num clone=4这取决于具体模型的实现方式。在这种情况下,我相信这是每gpu的批量大小,但这只是如果你使用的模型,我的想法。源代码应该更清晰。这取决于具体模型的实现方式。在这种情况下,我相信这是每gpu的批量大小,但这只是如果你使用的模型,我的想法。源代码应该更清晰