Tensorflow 耦合2个不同的GPU卡进行小批量处理
我刚买了一台GTX 1080Ti,我想知道我是否可以同时使用我的旧GTX 1070和GTX 1080Ti进行TensorFlow或PyTorch的小型配料 我主要关注的是: GTX 1070是否会限制GTX 1080Ti或每个卡的最大功率使用 我知道,在SLI配置中,总VRAM的数量将等于最低数量的卡(这里的GTX 1070具有8GB或VRAM),但在使用tensorflow/pytorch进行培训时,在不涉及SLI的情况下,是否会发生同样的情况Tensorflow 耦合2个不同的GPU卡进行小批量处理,tensorflow,multi-gpu,pytorch,tensorflow-gpu,Tensorflow,Multi Gpu,Pytorch,Tensorflow Gpu,我刚买了一台GTX 1080Ti,我想知道我是否可以同时使用我的旧GTX 1070和GTX 1080Ti进行TensorFlow或PyTorch的小型配料 我主要关注的是: GTX 1070是否会限制GTX 1080Ti或每个卡的最大功率使用 我知道,在SLI配置中,总VRAM的数量将等于最低数量的卡(这里的GTX 1070具有8GB或VRAM),但在使用tensorflow/pytorch进行培训时,在不涉及SLI的情况下,是否会发生同样的情况 你不能为了深入学习而运行SLI 您受到PCIe互
对于“你不能运行SLI进行深度学习”这句话,你有什么参考资料吗?