Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 深度学习任务中批量大小与CUDA负荷的关系_Python_Tensorflow_Deep Learning - Fatal编程技术网

Python 深度学习任务中批量大小与CUDA负荷的关系

Python 深度学习任务中批量大小与CUDA负荷的关系,python,tensorflow,deep-learning,Python,Tensorflow,Deep Learning,通过在家用电脑的GPU上运行TensorFlow示例,我正在学习机器翻译: 我的GPU有6GB的VRAM。我必须减少批处理大小,以使示例代码不会耗尽GPU上的内存。通过反复试验,我找到了一个批大小(最小值为1),其中代码运行并使用了最多内存。我注意到,随着批处理大小的减小,Windows任务管理器GPU视图报告的CUDA核心负载下降 上面链接中描述的应用程序创建了一个复杂的TensorFlow网络。我不知道Tensorflow是创建一个网络副本还是多个副本来加载GPU 如果它可以创建多个副本,是

通过在家用电脑的GPU上运行TensorFlow示例,我正在学习机器翻译:

我的GPU有6GB的VRAM。我必须减少批处理大小,以使示例代码不会耗尽GPU上的内存。通过反复试验,我找到了一个批大小(最小值为1),其中代码运行并使用了最多内存。我注意到,随着批处理大小的减小,Windows任务管理器GPU视图报告的CUDA核心负载下降

上面链接中描述的应用程序创建了一个复杂的TensorFlow网络。我不知道Tensorflow是创建一个网络副本还是多个副本来加载GPU

如果它可以创建多个副本,是否有TensorFlow开关?我认为内存速度不应该成为GPU的瓶颈。也就是说,我应该能够在批量大小或驻留在GPU中的作业数量以及GPU中的计算网络数量之间进行优化

TensorFlow中有没有一种简单的方法来评估计算网络CUDA内核的大小

问题:我可以使用哪些因素来优化小型GPU和大型深度学习任务中的CUDA负载