Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/windows-phone-7/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 耦合2个不同的GPU卡进行小批量处理_Tensorflow_Multi Gpu_Pytorch_Tensorflow Gpu - Fatal编程技术网

Tensorflow 耦合2个不同的GPU卡进行小批量处理

Tensorflow 耦合2个不同的GPU卡进行小批量处理,tensorflow,multi-gpu,pytorch,tensorflow-gpu,Tensorflow,Multi Gpu,Pytorch,Tensorflow Gpu,我刚买了一台GTX 1080Ti,我想知道我是否可以同时使用我的旧GTX 1070和GTX 1080Ti进行TensorFlow或PyTorch的小型配料 我主要关注的是: GTX 1070是否会限制GTX 1080Ti或每个卡的最大功率使用 我知道,在SLI配置中,总VRAM的数量将等于最低数量的卡(这里的GTX 1070具有8GB或VRAM),但在使用tensorflow/pytorch进行培训时,在不涉及SLI的情况下,是否会发生同样的情况 你不能为了深入学习而运行SLI 您受到PCIe互

我刚买了一台GTX 1080Ti,我想知道我是否可以同时使用我的旧GTX 1070和GTX 1080Ti进行TensorFlow或PyTorch的小型配料

我主要关注的是:

GTX 1070是否会限制GTX 1080Ti或每个卡的最大功率使用

我知道,在SLI配置中,总VRAM的数量将等于最低数量的卡(这里的GTX 1070具有8GB或VRAM),但在使用tensorflow/pytorch进行培训时,在不涉及SLI的情况下,是否会发生同样的情况

  • 你不能为了深入学习而运行SLI
  • 您受到PCIe互连的限制。如果您不同时使用两条x16线路,则其中一条线路的速度会较慢
  • 我不确定如果出现电源问题会发生什么
  • 我可以并行运行GTX 1060和GTX 970进行小型批处理

  • 对于“你不能运行SLI进行深度学习”这句话,你有什么参考资料吗?