Amazon web services ‘;目标位置的精度召回’‘;召回精度为"目标"的产品’;在AWS SageMaker上的超参数上,如何使用该约束进行训练?
[AWS SageMaker LinearLearner][1]二进制分类器、模型、选择标准是一个非常有用的超参数,无需交叉验证和超参数调整。至少在我看来是这样 如果是,请解释如何将超参数设置为“目标精度”或“目标精度”来训练模型Amazon web services ‘;目标位置的精度召回’‘;召回精度为"目标"的产品’;在AWS SageMaker上的超参数上,如何使用该约束进行训练?,amazon-web-services,scikit-learn,linear-regression,amazon-sagemaker,hyperparameters,Amazon Web Services,Scikit Learn,Linear Regression,Amazon Sagemaker,Hyperparameters,[AWS SageMaker LinearLearner][1]二进制分类器、模型、选择标准是一个非常有用的超参数,无需交叉验证和超参数调整。至少在我看来是这样 如果是,请解释如何将超参数设置为“目标精度”或“目标精度”来训练模型 我在scikit learn中从未见过这样的事情。对我来说,唯一可行且合理的方法是使用阈值,将其保持在目标回忆或目标精确性的水平,不幸的是,文档中没有提及阈值或截断,我猜它仍然是.5。SageMaker Linear Learner在多个方面不同于开源线性模型,特别是
我在scikit learn中从未见过这样的事情。对我来说,唯一可行且合理的方法是使用阈值,将其保持在目标回忆或目标精确性的水平,不幸的是,文档中没有提及阈值或截断,我猜它仍然是.5。SageMaker Linear Learner在多个方面不同于开源线性模型,特别是:
- 更多性能控制:它的功能是强制模型遵守给定的精度或召回阈值。例如,如果您的目标是获得至少95%召回率的分类器,则可以相应地选择超参数:
和binary\u classifier\u model\u selection\u criteria='precision\u at\u target\u recall'
target\u recall=0.95
- 它可以在单个培训工作中探索多种配置,有效地进行“调整培训”。此行为在文档中称为“平行培训和模型选择”,不同于SageMaker模型调整功能,并且特定于线性学习者。您可以使用
参数控制测试模型的数量num\u models
- 它通常比备选方案更具可扩展性:它像小型批量SGD方式的神经网络一样进行训练,允许它支持多个CPU或GPU实例上的数据并行分布式训练。它支持管道模式数据加载(PIPE mode data loading),这是一种SageMaker低延迟、高吞吐量的数据摄取技术,它使用Unix命名的管道将S3中的数据直接流式存储在内存中,从而允许在对本地磁盘来说太大的巨大数据集上进行学习
- 它的设计是高效的我们只能推测其背后的诀窍是什么,因为实施不是公开的,但我相信丰富的SGD定制选项和培训设计的调整有助于提高其经济效益。下面是Liberty等人的论文中的基准与MLlib
- 它带有一个内置的服务堆栈:您可以轻松地将经过培训的模型部署到SageMaker管理的服务端点,而无需自己编写任何dockerfile或Web服务器代码
与其他内置SageMaker相比,SageMaker线性学习器的另一个显著区别在于,您可以使用中提供的MXNet反序列化代码从SageMaker中读取它。我假设它基于设置阈值;请参阅中的“步骤3:验证并设置阈值”,但我很乐意看到更多关于这方面的具体文档!