Python 为什么Tensorflow/keras作业下只有一个GPU对具有非零GPU利用率?

Python 为什么Tensorflow/keras作业下只有一个GPU对具有非零GPU利用率?,python,ubuntu,tensorflow,keras,Python,Ubuntu,Tensorflow,Keras,我刚刚开始用我新的、闪亮的GTX 1080处理这个相当大的数据集。我已经安装了驱动程序以及cuda、cuDNN等 观察: 当我运行nvidia smi时,我得到以下图片: 所以,我认为,两个GPU都在使用大量的内存,这很好?然而,对于这两个GPU,尤其是第二个GPU,GPU的利用率都非常低 说明:为什么? 有人知道为什么GPU的利用率如此之低,有没有关于如何提高性能的提示?首先,nvidia smi可能会产生误导。 看看 第二:不幸的是,Keras没有为使用多个GPU提供现成的解决方案。Ker

我刚刚开始用我新的、闪亮的GTX 1080处理这个相当大的数据集。我已经安装了驱动程序以及cuda、cuDNN等

观察: 当我运行nvidia smi时,我得到以下图片:

所以,我认为,两个GPU都在使用大量的内存,这很好?然而,对于这两个GPU,尤其是第二个GPU,GPU的利用率都非常低

说明:为什么? 有人知道为什么GPU的利用率如此之低,有没有关于如何提高性能的提示?

首先,nvidia smi可能会产生误导。 看看

第二:不幸的是,Keras没有为使用多个GPU提供现成的解决方案。Keras自动使用TensorFlow作为后端GPU。如果要同时使用两个GPU,必须直接使用TensorFlow。
如果您使用的是Keras版本1.x.x,则可以尝试以下解决方案:

你使用的是哪个相当大的数据集?@D.Laupheimer github上的comma.ai数据集:我实际上也运行了代码,因为我想尝试一下,我的新GPU有多快,因为我在下面的评论中读到keras不提供多个GPU的使用,我想我必须自己写一些东西。是的,您必须这样做-或者使用下面提到的解决方案。