Python TPE(来自Optuna)是否考虑了试验次数?
我正在使用optuna的TPE采样器优化深度学习视觉模型的超参数。 我想知道OPC是否会根据试验的数量调整搜索 如果我训练1000次,然后停在500次,我可以看到很多参数没有被算法尝试过。 如果我减少n_试验,TPE探索是否更快(更不精确)? 换句话说,用n_步长=1000在500处中断optuna与使用n_试验=500并等待结束是一样的 我对TPE的工作原理只有基本的了解 谢谢 如果我减少n_试验,TPE探索是否更快(更不精确) 没有 。。。使用n_step=1000在500中断optuna与使用n_trials=500并等待结束是否相同 对Python TPE(来自Optuna)是否考虑了试验次数?,python,hyperparameters,optuna,Python,Hyperparameters,Optuna,我正在使用optuna的TPE采样器优化深度学习视觉模型的超参数。 我想知道OPC是否会根据试验的数量调整搜索 如果我训练1000次,然后停在500次,我可以看到很多参数没有被算法尝试过。 如果我减少n_试验,TPE探索是否更快(更不精确)? 换句话说,用n_步长=1000在500处中断optuna与使用n_试验=500并等待结束是一样的 我对TPE的工作原理只有基本的了解 谢谢 如果我减少n_试验,TPE探索是否更快(更不精确) 没有 。。。使用n_step=1000在500中断optuna与
这是因为TPE(来自Optuna)不知道剩余(或全部)试验的数量。你好,Phi,让我澄清你的问题。你使用迭代这个词的意思是什么?与小批量数量相对应的训练循环计数,或与超参数集数量相对应的Optuna试验数量?我在想优化函数中的n_试验参数。感谢您的回复和更新说明。我明白。@user11409592您能/愿意引用源代码作为您的答案吗?这是实现的源代码。它不依赖于用户指定的试验次数。您还可以从外部试验循环中看到,除了
n_试验
,还有其他停止条件,即使用超时指定的运行时间