Amazon web services 如何在AWS SageMaker中部署自定义模型?
我有一个定制的机器学习预测模型。我还有一个用户定义的估计器类,它使用Optuna进行超参数调优。我需要将此模型部署到SageMaker,以便从lambda函数调用它 我在为模型和估计器创建容器的过程中遇到了麻烦 我知道SageMaker有一个scikit学习容器,可以用于Optuna,但是我如何利用它来包含我自己的Estimator类中的函数呢?此外,该模型是传递给该估计器类的参数之一,因此我如何将其定义为一个单独的培训工作,以使其成为一个端点 以下是调用估计器类和模型的方式:Amazon web services 如何在AWS SageMaker中部署自定义模型?,amazon-web-services,machine-learning,deployment,scikit-learn,amazon-sagemaker,Amazon Web Services,Machine Learning,Deployment,Scikit Learn,Amazon Sagemaker,我有一个定制的机器学习预测模型。我还有一个用户定义的估计器类,它使用Optuna进行超参数调优。我需要将此模型部署到SageMaker,以便从lambda函数调用它 我在为模型和估计器创建容器的过程中遇到了麻烦 我知道SageMaker有一个scikit学习容器,可以用于Optuna,但是我如何利用它来包含我自己的Estimator类中的函数呢?此外,该模型是传递给该估计器类的参数之一,因此我如何将其定义为一个单独的培训工作,以使其成为一个端点 以下是调用估计器类和模型的方式: sirf_est
sirf_estimator = Estimator(
SIRF, ncov_df, population_dict[countryname],
name=countryname, places=[(countryname, None)],
start_date=critical_country_start
)
sirf_dict = sirf_estimator.run()
其中:
如果有人能了解这一点,那将非常有帮助,非常感谢 SageMaker推断端点当前依赖于基于Docker图像的接口。在基础级别,您可以设置一个Docker映像,该映像运行web服务器并响应AWS所需端口上的端点。本指南将向您介绍如何执行此操作: 这是一个烦人的工作量。如果您使用的是知名的框架,那么他们有一个容器库,其中包含一些您可以重用的样板代码:。您可能可以重用其中的一些代码,但可以对其进行自定义 或者根本不使用SageMaker推断端点:)如果您的模型能够满足AWS Lambda的大小/内存限制,那么这是一个更容易的选择