Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 对AWS语义分段的GPU支持_Amazon Web Services_Amazon Sagemaker_Mxnet_Semantic Segmentation - Fatal编程技术网

Amazon web services 对AWS语义分段的GPU支持

Amazon web services 对AWS语义分段的GPU支持,amazon-web-services,amazon-sagemaker,mxnet,semantic-segmentation,Amazon Web Services,Amazon Sagemaker,Mxnet,Semantic Segmentation,我在笔记本中使用AWS提供的语义分割算法训练了一个模型。 将大小为512x512的图像馈送到此网络(根据相同大小的图像进行训练)大约需要10秒钟。馈送大小为1024x512的图像只需大约两倍的时间 这感觉像是一个荒谬的时间量,所以我更深入地挖掘,使用构建AWS语义分段的gluoncv和mxnet将模型加载到EC2实例中 在这里,我发现了一个ctx标志,它声明我是否要使用CPU或GPU。 我在AWS上找不到这个标志,所以我的假设是,这必须在后台处理,这取决于我选择运行的实例 但是,当将我在笔记本上

我在笔记本中使用AWS提供的语义分割算法训练了一个模型。 将大小为512x512的图像馈送到此网络(根据相同大小的图像进行训练)大约需要10秒钟。馈送大小为1024x512的图像只需大约两倍的时间

这感觉像是一个荒谬的时间量,所以我更深入地挖掘,使用构建AWS语义分段的gluoncv和mxnet将模型加载到EC2实例中

在这里,我发现了一个ctx标志,它声明我是否要使用CPU或GPU。 我在AWS上找不到这个标志,所以我的假设是,这必须在后台处理,这取决于我选择运行的实例

但是,当将我在笔记本上训练过的模型加载到为GPU设置的EC2实例时,我得到以下错误: “运行时错误:未在上下文gpu(0)上初始化参数'fcn0\u resnetv1 s\u conv0\u weight'。它仅在[cpu(0)]上初始化。”

我将其解释为仅在CPU上运行的网络,进而解释了为什么通过网络传送512x512图像需要10秒

我是不是遗漏了什么? 如何使用GPU运行AWS提供的语义分段算法

问候,, C

SageMaker语义分段支持CPU和GPU进行推理

SageMaker内置的算法容器不能部署在笔记本电脑中,它们只能通过托管端点或批处理转换进行部署。因此,如果要部署到GPU,需要在
model.deploy()
调用或端点创建SDK调用(如果不使用Python SDK)中指定启用GPU的机器

有些算法具有相当透明的内部结构(如语义分段算法),可以让您离线阅读,例如在笔记本或自定义环境中

在这种情况下,为了自己运行GPU推理,您需要在GPU上下文中拥有模型和输入。要将模型移动到GPU,可以使用
net.collect_params().reset_ctx(mxnet.GPU())