Machine learning 如何使用MOE调整机器学习超参数?

Machine learning 如何使用MOE调整机器学习超参数?,machine-learning,hyperparameters,Machine Learning,Hyperparameters,我正试图使用Yelp创建的“度量优化引擎”来调整机器学习算法的超参数。他们的文档有点有限,我很难找到可以遵循的示例 假设我想根据以下分布为a找到C、Gamma和内核类型的最佳值: SVC_PARAMS = [ { "bounds": { "max": 10.0, "min": 0.01, }, "name": "C", "type": "double", "tr

我正试图使用Yelp创建的“度量优化引擎”来调整机器学习算法的超参数。他们的文档有点有限,我很难找到可以遵循的示例

假设我想根据以下分布为a找到
C
Gamma
内核类型的最佳值:

SVC_PARAMS = [
    {
        "bounds": {
            "max": 10.0,
            "min": 0.01,
        },
        "name": "C",
        "type": "double",
        "transformation": "log",
    },
    {
        "bounds": {
            "max": 1.0,
            "min": 0.0001,
        },
        "name": "gamma",
        "type": "double",
        "transformation": "log",
    },
    {
        "type": "categorical",
        "name": "kernel",
        "categorical_values": [
            {"name": "rbf"},
            {"name": "poly"},
            {"name": "sigmoid"},
        ],
    },
]
我试图最大化的目标函数是我的训练集


我如何使用?MOE不支持分类变量,它只允许连续超参数。为了实现您想要的目标,您可以将每个分类实例作为单独的问题进行优化,然后使用中概述的流程。最后,您可以从每种内核类型的优化模型中选择最佳模型


或者,您可以使用由创建MOE的团队构建的SigOpt。我们在教育部开始的大量工作的基础上进行了扩展。它支持连续、整数和分类参数,以及MOE中没有的许多其他功能和增强功能。我们在中概述了这个确切的示例,并在文章中提供了示例代码。您可以在我们的免费试用版或免费学术版中运行此示例。

谢谢Scott。参数示例取自您提到的SigOpt博客文章。感谢您的评论。。但我仍然很好奇如何让MOE跑起来。我已经运行了docker,但是我找不到一种方法来定义目标函数,如何提供参数空间以及Python中的所有内容。