Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/python-3.x/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 3.x SageMaker从TF脚本模式Python3部署到EIA_Python 3.x_Tensorflow_Amazon Ec2_Amazon Sagemaker_Docker Pull - Fatal编程技术网

Python 3.x SageMaker从TF脚本模式Python3部署到EIA

Python 3.x SageMaker从TF脚本模式Python3部署到EIA,python-3.x,tensorflow,amazon-ec2,amazon-sagemaker,docker-pull,Python 3.x,Tensorflow,Amazon Ec2,Amazon Sagemaker,Docker Pull,我已经在SageMaker中安装了一个Tensorflow估计器,它使用脚本模式,使用GPU实例,使用framework\u version='1.12.0'和python\u version='py3' 如果我也选择部署实例类型作为GPU,则直接在此估计器上调用deploy也会起作用。但是,如果我选择一个CPU实例类型和/或尝试添加一个加速器,它会失败,并出现一个错误,docker无法找到要拉取的对应映像 有人知道如何使用脚本模式在GPU上训练py3模型,然后部署到CPU+EIA实例吗 我已

我已经在SageMaker中安装了一个Tensorflow估计器,它使用脚本模式,使用GPU实例,使用
framework\u version='1.12.0'
python\u version='py3'

如果我也选择部署实例类型作为GPU,则直接在此估计器上调用deploy也会起作用。但是,如果我选择一个CPU实例类型和/或尝试添加一个加速器,它会失败,并出现一个错误,docker无法找到要拉取的对应映像

有人知道如何使用脚本模式在GPU上训练py3模型,然后部署到CPU+EIA实例吗



我已经找到了一个部分解决方法,通过中间步骤从估计器的训练工件创建一个TensorFlowModel,然后从模型部署,但这似乎不支持python 3(同样,没有找到相应的容器)。如果我切换到python_version='py2',它将找到容器,但无法通过运行状况检查,因为我所有的代码都是为python 3编写的。

不幸的是,目前没有TF+python 3+EI为图像提供服务。如果您想使用TF+EI,您需要确保您的代码与python2兼容


编辑:在我最初编写这篇文章之后,对TF+python3+EI的支持已经发布。在撰写本文时,我相信TF1.12.0、1.13.1和1.14.0都支持Python 3+EI。有关完整列表,请参见。

不幸的是,目前没有TF+Python 3+EI服务图像。如果您想使用TF+EI,您需要确保您的代码与python2兼容


编辑:在我最初编写这篇文章之后,对TF+python3+EI的支持已经发布。在撰写本文时,我相信TF1.12.0、1.13.1和1.14.0都支持Python 3+EI。有关完整列表,请参阅。

通过使用sagemaker.tensorflow.service.Model而不是TensorFlowModel实现了这一点。仍然无法直接从estimator部署。通过使用sagemaker.tensorflow.serving.Model而不是TensorFlowModel实现了这一点。仍然无法直接从估计器部署。