Amazon ec2 在AWS sagemaker笔记本实例中使用pytorch cuda

Amazon ec2 在AWS sagemaker笔记本实例中使用pytorch cuda,amazon-ec2,pytorch,amazon-sagemaker,Amazon Ec2,Pytorch,Amazon Sagemaker,在colab中,每当我们需要GPU时,只需单击change runtime type并将硬件加速器更改为GPU cuda可用,torch.cuda.is_available()isTrue 如何做到这一点是AWS sagemaker,即打开cuda。 我是AWS新手,尝试在AWS sagemaker中使用Pytork训练模型,Pytork代码首次在colab环境中测试 我的sagemaker笔记本显示器是ml.t2.medium使用AWS sagemaker您不必担心GPU,只需使用GPU选择一

在colab中,每当我们需要GPU时,只需单击
change runtime type
并将硬件加速器更改为
GPU

cuda可用,
torch.cuda.is_available()
is
True

如何做到这一点是AWS sagemaker,即打开cuda。 我是AWS新手,尝试在AWS sagemaker中使用Pytork训练模型,Pytork代码首次在colab环境中测试


我的sagemaker笔记本显示器是
ml.t2.medium

使用AWS sagemaker您不必担心GPU,只需使用GPU选择一个实例类型,sagemaker就会使用它。具体来说,
ml.t2.medium
没有GPU,但它无论如何都不是训练模型的正确方法。 基本上,你有两种使用Sagemaker的标准方法(请看文档和示例),第一种是使用一个计算资源有限的笔记本电脑,使用一个预构建的图像来加速培训工作,在这种情况下,当你调用估计器时,你只需指定你想要的(你将选择一个GPU,看看成本)。第二种方法是使用您自己的容器,将其推送到ECR并从控制台启动培训作业,在控制台中指定实例类型