Deep learning AWS批处理,如何请求GPU

Deep learning AWS批处理,如何请求GPU,deep-learning,aws-batch,Deep Learning,Aws Batch,我得到了关于如何使用AWS批处理来训练深度学习模型的文档。这个想法是,一旦建立了一个模型,我想提交几份工作来探索一点超参数空间 在本文中,blogger创建了P2实例的执行环境,并使用它为MNIST训练卷积神经网络。 我现在想知道,在我的工作定义中,是否可能需要特定数量的GPU而不是VCPU。通过这种方式,我确信我的工作具有所需的GPU数量。如果没有,有什么解决办法吗?我相信你现在已经明白了,但不会有什么伤害,对吧?不,目前还没有办法指定GPU计数。但是,您可以将vCPU计数分配给作业定义,以指

我得到了关于如何使用AWS批处理来训练深度学习模型的文档。这个想法是,一旦建立了一个模型,我想提交几份工作来探索一点超参数空间

在本文中,blogger创建了P2实例的执行环境,并使用它为MNIST训练卷积神经网络。
我现在想知道,在我的工作定义中,是否可能需要特定数量的GPU而不是VCPU。通过这种方式,我确信我的工作具有所需的GPU数量。如果没有,有什么解决办法吗?

我相信你现在已经明白了,但不会有什么伤害,对吧?不,目前还没有办法指定GPU计数。但是,您可以将vCPU计数分配给作业定义,以指定这么多GPU

例如,p2.xlarge实例有4个vCPU。因此,如果您希望为您的作业分配1个GPU,请将该作业定义分配给4个VCPU。这样,每个p2.xlarge实例将只运行一个作业。这可能是对所需vCPU空间的过度消耗,但这是目前唯一可以指定您希望该作业以及该作业仅具有GPU的方法


我和AWS的人谈过,他们一直说GPU规范可能很快就会出台,但谁知道呢,真的。

AWS从2019年4月开始批量支持GPU分配/调度。使用此新功能,您可以指定工作所需的GPU数量。Batch还为您的作业执行GPU固定。如果一个实例有多个GPU,Batch可以在同一个实例上放置多个作业(每个作业要求1个GPU),并让它们同时运行。下面是一个使用批处理gpu支持运行gpu作业的示例。