Machine learning 如何使用MOE调整机器学习超参数?
我正试图使用Yelp创建的“度量优化引擎”来调整机器学习算法的超参数。他们的文档有点有限,我很难找到可以遵循的示例 假设我想根据以下分布为a找到Machine learning 如何使用MOE调整机器学习超参数?,machine-learning,hyperparameters,Machine Learning,Hyperparameters,我正试图使用Yelp创建的“度量优化引擎”来调整机器学习算法的超参数。他们的文档有点有限,我很难找到可以遵循的示例 假设我想根据以下分布为a找到C、Gamma和内核类型的最佳值: SVC_PARAMS = [ { "bounds": { "max": 10.0, "min": 0.01, }, "name": "C", "type": "double", "tr
C
、Gamma
和内核类型的最佳值:
SVC_PARAMS = [
{
"bounds": {
"max": 10.0,
"min": 0.01,
},
"name": "C",
"type": "double",
"transformation": "log",
},
{
"bounds": {
"max": 1.0,
"min": 0.0001,
},
"name": "gamma",
"type": "double",
"transformation": "log",
},
{
"type": "categorical",
"name": "kernel",
"categorical_values": [
{"name": "rbf"},
{"name": "poly"},
{"name": "sigmoid"},
],
},
]
我试图最大化的目标函数是我的训练集
我如何使用?MOE不支持分类变量,它只允许连续超参数。为了实现您想要的目标,您可以将每个分类实例作为单独的问题进行优化,然后使用中概述的流程。最后,您可以从每种内核类型的优化模型中选择最佳模型
或者,您可以使用由创建MOE的团队构建的SigOpt。我们在教育部开始的大量工作的基础上进行了扩展。它支持连续、整数和分类参数,以及MOE中没有的许多其他功能和增强功能。我们在中概述了这个确切的示例,并在文章中提供了示例代码。您可以在我们的免费试用版或免费学术版中运行此示例。谢谢Scott。参数示例取自您提到的SigOpt博客文章。感谢您的评论。。但我仍然很好奇如何让MOE跑起来。我已经运行了docker,但是我找不到一种方法来定义目标函数,如何提供参数空间以及Python中的所有内容。