Python 如何在AWS sagemaker上选择超参数来训练良好的目标检测模型?
使用AWS sagemaker算法进行目标检测 我创建了有自动调谐和无自动调谐的对象检测模型。其中一些有很好的地图,而另一些没有。当我在新图片上测试它时,并不是所有的物体都能被检测到 我应该选择哪些Python 如何在AWS sagemaker上选择超参数来训练良好的目标检测模型?,python,amazon-web-services,machine-learning,object-detection,amazon-sagemaker,Python,Amazon Web Services,Machine Learning,Object Detection,Amazon Sagemaker,使用AWS sagemaker算法进行目标检测 我创建了有自动调谐和无自动调谐的对象检测模型。其中一些有很好的地图,而另一些没有。当我在新图片上测试它时,并不是所有的物体都能被检测到 我应该选择哪些parameters和hyperparameters使其具有最佳模型 还有,你认为我需要多少张照片 提前谢谢 目前,我正在尝试检测立顿茶(方形盒子)。我有5种不同的茶(所以有5门课),总共500张图片。每节课100英镑。 我将数据分成90%用于培训,10%用于验证。然后我会用新图片进行测试 tuned
parameters
和hyperparameters
使其具有最佳模型
还有,你认为我需要多少张照片
提前谢谢
目前,我正在尝试检测立顿茶(方形盒子)。我有5种不同的茶(所以有5门课),总共500张图片。每节课100英镑。
我将数据分成90%用于培训,10%用于验证。然后我会用新图片进行测试
tuned_hyperparameters_ranges = {
'learning_rate': ContinuousParameter(0.001, 0.05),
'momentum': ContinuousParameter(0.4, 0.99),
}
我需要它至少有90%的检测率。每堂课100张图片听起来是一个合理的开始。我的建议是:
base\u network
设置为resnet-50
,如图所示,在相当一般的COCO检测任务中,resnet50主干网的性能优于vgg16主干网使用预先训练的模型=1
lr\u调度程序\u step='20,40'
和lr\u调度程序\u factor=0.1
学习率
和小批量大小
如果这仍然不令人满意,请考虑基于每个选项的成本收集更多数据或使用自定义代码实现不同的检测器。SageMaker探测器是SSD,具有适当技巧的更快的RCNN或YoloV3等替代体系结构可以提供更好的性能。您可以在上面链接的ModelZoo中的MXNet容器中找到python中的优秀检测器体系结构。不过,这比使用内置SageMaker探测器要费劲得多,所以我会首先尝试上面的4个选项