Amazon web services 如何在AWS SageMaker中部署自定义模型?

Amazon web services 如何在AWS SageMaker中部署自定义模型?,amazon-web-services,machine-learning,deployment,scikit-learn,amazon-sagemaker,Amazon Web Services,Machine Learning,Deployment,Scikit Learn,Amazon Sagemaker,我有一个定制的机器学习预测模型。我还有一个用户定义的估计器类,它使用Optuna进行超参数调优。我需要将此模型部署到SageMaker,以便从lambda函数调用它 我在为模型和估计器创建容器的过程中遇到了麻烦 我知道SageMaker有一个scikit学习容器,可以用于Optuna,但是我如何利用它来包含我自己的Estimator类中的函数呢?此外,该模型是传递给该估计器类的参数之一,因此我如何将其定义为一个单独的培训工作,以使其成为一个端点 以下是调用估计器类和模型的方式: sirf_est

我有一个定制的机器学习预测模型。我还有一个用户定义的估计器类,它使用Optuna进行超参数调优。我需要将此模型部署到SageMaker,以便从lambda函数调用它

我在为模型和估计器创建容器的过程中遇到了麻烦

我知道SageMaker有一个scikit学习容器,可以用于Optuna,但是我如何利用它来包含我自己的Estimator类中的函数呢?此外,该模型是传递给该估计器类的参数之一,因此我如何将其定义为一个单独的培训工作,以使其成为一个端点

以下是调用估计器类和模型的方式:

sirf_estimator = Estimator(
    SIRF, ncov_df, population_dict[countryname],
    name=countryname, places=[(countryname, None)],
    start_date=critical_country_start
    )
sirf_dict = sirf_estimator.run()
其中:

  • 型号名称:SIRF
  • 已清理的数据集:ncov_df

  • 如果有人能了解这一点,那将非常有帮助,非常感谢

    SageMaker推断端点当前依赖于基于Docker图像的接口。在基础级别,您可以设置一个Docker映像,该映像运行web服务器并响应AWS所需端口上的端点。本指南将向您介绍如何执行此操作:

    这是一个烦人的工作量。如果您使用的是知名的框架,那么他们有一个容器库,其中包含一些您可以重用的样板代码:。您可能可以重用其中的一些代码,但可以对其进行自定义

    或者根本不使用SageMaker推断端点:)如果您的模型能够满足AWS Lambda的大小/内存限制,那么这是一个更容易的选择