Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/313.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python TPE(来自Optuna)是否考虑了试验次数?_Python_Hyperparameters_Optuna - Fatal编程技术网

Python TPE(来自Optuna)是否考虑了试验次数?

Python TPE(来自Optuna)是否考虑了试验次数?,python,hyperparameters,optuna,Python,Hyperparameters,Optuna,我正在使用optuna的TPE采样器优化深度学习视觉模型的超参数。 我想知道OPC是否会根据试验的数量调整搜索 如果我训练1000次,然后停在500次,我可以看到很多参数没有被算法尝试过。 如果我减少n_试验,TPE探索是否更快(更不精确)? 换句话说,用n_步长=1000在500处中断optuna与使用n_试验=500并等待结束是一样的 我对TPE的工作原理只有基本的了解 谢谢 如果我减少n_试验,TPE探索是否更快(更不精确) 没有 。。。使用n_step=1000在500中断optuna与

我正在使用optuna的TPE采样器优化深度学习视觉模型的超参数。 我想知道OPC是否会根据试验的数量调整搜索

如果我训练1000次,然后停在500次,我可以看到很多参数没有被算法尝试过。 如果我减少n_试验,TPE探索是否更快(更不精确)? 换句话说,用n_步长=1000在500处中断optuna与使用n_试验=500并等待结束是一样的

我对TPE的工作原理只有基本的了解

谢谢

如果我减少n_试验,TPE探索是否更快(更不精确)

没有

。。。使用n_step=1000在500中断optuna与使用n_trials=500并等待结束是否相同


这是因为TPE(来自Optuna)不知道剩余(或全部)试验的数量。

你好,Phi,让我澄清你的问题。你使用迭代这个词的意思是什么?与小批量数量相对应的训练循环计数,或与超参数集数量相对应的Optuna试验数量?我在想优化函数中的n_试验参数。感谢您的回复和更新说明。我明白。@user11409592您能/愿意引用源代码作为您的答案吗?这是实现的源代码。它不依赖于用户指定的试验次数。您还可以从外部试验循环中看到,除了
n_试验
,还有其他停止条件,即使用
超时指定的运行时间