Amazon ec2 Amazon GPU实例是否以独占方式访问GPU?

Amazon ec2 Amazon GPU实例是否以独占方式访问GPU?,amazon-ec2,Amazon Ec2,我在EC2 p2.xlarge共享实例上运行Ubuntu 16.04。 P2.xlarge实例允许我的共享实例访问单个GPU(NVidia K80 GPU的1/2?) 这个GPU是如何在同一台物理机器上的其他AmazonEC2实例之间共享的? 我的印象是100%的GPU分配给了我的实例。但情况显然并非如此。当我的实例在GPU上不运行任何内容时: $ nvidia-smi Tue Feb 21 00:11:16 2017 +-----------------------------

我在EC2 p2.xlarge共享实例上运行Ubuntu 16.04。

P2.xlarge实例允许我的共享实例访问单个GPU(NVidia K80 GPU的1/2?)

这个GPU是如何在同一台物理机器上的其他AmazonEC2实例之间共享的? 我的印象是100%的GPU分配给了我的实例。但情况显然并非如此。当我的实例在GPU上不运行任何内容时:

$ nvidia-smi
Tue Feb 21 00:11:16 2017       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 375.39                 Driver Version: 375.39                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  Tesla K80           Off  | 0000:00:1E.0     Off |                    0 |
| N/A   39C    P0    55W / 149W |      0MiB / 11439MiB |     63%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+
过了一会儿:

|   0  Tesla K80           Off  | 0000:00:1E.0     Off |                    0 |
| N/A   40C    P0    57W / 149W |      0MiB / 11439MiB |     97%      Default |
下一刻:

|   0  Tesla K80           Off  | 0000:00:1E.0     Off |                    0 |
| N/A   40C    P0    56W / 149W |      0MiB / 11439MiB |    100%      Default |
而且几乎都呆在那里

|   0  Tesla K80           Off  | 0000:00:1E.0     Off |                    0 |
| N/A   41C    P0    56W / 149W |      0MiB / 11439MiB |    100%      Default |


|   0  Tesla K80           Off  | 0000:00:1E.0     Off |                    0 |
| N/A   41C    P0    56W / 149W |      0MiB / 11439MiB |     99%      Default |

GPU实例的GPU分配规则是什么?您没有共享。这可能是一个欺骗性的迹象。查看是否需要新硬件,停止和启动insrance会将其移动到新机器上(实例停止时硬件会被解除分配,下次启动时会重新分配,即使实例id保持不变——这就是停止时不计费的原因)。感谢您抽出时间与我们分享。是的,停止然后启动可能会将实例分配给不同的硬件。但是,如果您创建一个共享实例,它只是在专用硬件上运行的价格的一小部分,因为它与同一物理机器上的其他实例一起运行。(在EC2仪表板中启动实例时有一个选择。)是否分配了专用CPU?专用GPU?但英伟达smi似乎表明了另一种情况。我在本地使用了多年,不使用时报告为0-2%。在g2实例上也是如此。在p2上准确吗?实际上,这不是专用与共享的意思。这两个实例在技术上是相同的,但是对于专用实例,您是计算机上的第一个租户——但是如果您创建第二个实例——专用或共享——它可能是计算机上的第二个租户,也可能是第一个租户:您正在与自己共享它。这主要是出于监管和许可的原因,而不是技术原因。@Michael sqlbot啊,是的。我知道你是从哪里来的。。您考虑的是“专用实例”,这是关于专用实例的一个很好的观点,而我考虑的是“专用主机”,即您真正获得硬件的地方,以及真正的费用所在。专用主机的描述: