Machine learning 超参数优化随机搜索算法的改进
随机搜索是机器学习中超参数优化的一种可能性。我已经应用随机搜索来搜索带有RBF核的SVM分类器的最佳超参数。除了连续成本和gamma参数外,我还有一个离散参数和一些参数上的等式约束 现在,我想进一步发展随机搜索,例如通过自适应随机搜索。这意味着例如搜索方向或搜索范围的自适应Machine learning 超参数优化随机搜索算法的改进,machine-learning,mathematical-optimization,nonlinear-optimization,hyperparameters,Machine Learning,Mathematical Optimization,Nonlinear Optimization,Hyperparameters,随机搜索是机器学习中超参数优化的一种可能性。我已经应用随机搜索来搜索带有RBF核的SVM分类器的最佳超参数。除了连续成本和gamma参数外,我还有一个离散参数和一些参数上的等式约束 现在,我想进一步发展随机搜索,例如通过自适应随机搜索。这意味着例如搜索方向或搜索范围的自适应 是否有人知道如何做到这一点,或者可以参考一些现有的工作?其他改进随机搜索的想法也很受欢迎。为什么要尝试重新发明轮子?超参数优化是一个研究得很好的主题,至少有一些最先进的方法可以简单地解决支持向量机的问题,包括: 贝叶斯优化
是否有人知道如何做到这一点,或者可以参考一些现有的工作?其他改进随机搜索的想法也很受欢迎。为什么要尝试重新发明轮子?超参数优化是一个研究得很好的主题,至少有一些最先进的方法可以简单地解决支持向量机的问题,包括:
- 贝叶斯优化(通常通过高斯过程建模模型质量),参见示例bayesopt
- hyperopt中包括(特别是)parzen估计树(有时更适合离散、复杂的超参数空间)
如果您想在没有外部库的情况下扩展代码,这是完全可能的,因为贝叶斯优化并不难实现。您可以查看一下我在中使用的示例代码,例如大部分GP相关代码。这是一个关于编程问题的网站。你的问题更适合于谢谢你的提示,但我想改进我的随机搜索策略,而不是切换到其他方法。