Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/xpath/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 如何将.tar.gz格式的模型存储到AWS SageMaker并将其用作已部署的模型?_Amazon Web Services_Machine Learning_Deployment_Amazon Sagemaker_Bert Language Model - Fatal编程技术网

Amazon web services 如何将.tar.gz格式的模型存储到AWS SageMaker并将其用作已部署的模型?

Amazon web services 如何将.tar.gz格式的模型存储到AWS SageMaker并将其用作已部署的模型?,amazon-web-services,machine-learning,deployment,amazon-sagemaker,bert-language-model,Amazon Web Services,Machine Learning,Deployment,Amazon Sagemaker,Bert Language Model,我有一个预先训练过的BERT模型,它是在Google云平台上训练的,并且模型存储在一个.tar.gz格式的文件中,我想将这个模型部署到SageMaker,并且能够通过API触发模型,我如何实现这一点 我发现这和我在这里要问的有点相关,但这是一个scikit学习模型,我是这个领域的新手,有人能给我一些指导吗?非常感谢。这个问题很难回答,因为我们不知道模型训练的框架(Tensorflow或Pytorch),我们也不知道您要将其加载到哪个框架(Tensorflow或Pytorch)@CoreyLevi

我有一个预先训练过的BERT模型,它是在Google云平台上训练的,并且模型存储在一个.tar.gz格式的文件中,我想将这个模型部署到SageMaker,并且能够通过API触发模型,我如何实现这一点


我发现这和我在这里要问的有点相关,但这是一个scikit学习模型,我是这个领域的新手,有人能给我一些指导吗?非常感谢。

这个问题很难回答,因为我们不知道模型训练的框架(Tensorflow或Pytorch),我们也不知道您要将其加载到哪个框架(Tensorflow或Pytorch)@CoreyLevinson Hi都是Tensorflow出于好奇,它只是来自Tensorflow Hub吗?有一个图书馆Tensorflow中心,允许你只使用URL加载模型。哦,你能和我共享链接吗?您的意思是使用URL将其部署到SageMaker?当然,只要您的SageMaker可以连接到internet。您可以按照这里的步骤操作:顺便说一句,对于NLP,我强烈建议使用Huggingface变形金刚,我认为这要容易得多。