Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
是为tensorflow中的每个GPU指定的批处理大小_Tensorflow_Models - Fatal编程技术网

是为tensorflow中的每个GPU指定的批处理大小

是为tensorflow中的每个GPU指定的批处理大小,tensorflow,models,Tensorflow,Models,在Tensorflow模型示例(slim)中,当我们指定批量大小时,是每个GPU还是GPU之间的总批量大小 python train\u image\u classifier.py--dataset\u name=flowers--dataset\u split\u name=train--dataset\u dir=/tmp/flowers data--model\u name=inception\u v3--log\u every\u n\u steps=10--batch\u size=6

在Tensorflow模型示例(slim)中,当我们指定批量大小时,是每个GPU还是GPU之间的总批量大小


python train\u image\u classifier.py--dataset\u name=flowers--dataset\u split\u name=train--dataset\u dir=/tmp/flowers data--model\u name=inception\u v3--log\u every\u n\u steps=10--batch\u size=64--max\u number\u steps=100--num clone=4

这取决于具体模型的实现方式。在这种情况下,我相信这是每gpu的批量大小,但这只是如果你使用的模型,我的想法。源代码应该更清晰。

这取决于具体模型的实现方式。在这种情况下,我相信这是每gpu的批量大小,但这只是如果你使用的模型,我的想法。源代码应该更清晰