Big o 使用网格搜索进行超参数调整的计算复杂度是多少?
如果我有许多超参数需要调整,每个超参数都可以表示为任意长度的向量,例如神经元数=Big o 使用网格搜索进行超参数调整的计算复杂度是多少?,big-o,complexity-theory,grid-search,Big O,Complexity Theory,Grid Search,如果我有许多超参数需要调整,每个超参数都可以表示为任意长度的向量,例如神经元数=[4,8,16],学习率=[0.1,0.01,0.001,0.0001],那么完整网格搜索的计算复杂度会是多少 在不同超参数的数量上是否为多项式?< P>满网格搜索将考虑所有可能的笛卡尔积。 假设您有长度为n1,n2,…,nk的k列表,那么它将是n1 x n2 x。。。x nk 因此,是的,它是多项式。不,它是指数的,因为网格搜索是蛮力(参见) 如果您有长度为n的k列表₁, …, Nₖ其中min(n₁, …, Nₖ)
[4,8,16]
,学习率=[0.1,0.01,0.001,0.0001]
,那么完整网格搜索的计算复杂度会是多少
在不同超参数的数量上是否为多项式?
< P>满网格搜索将考虑所有可能的笛卡尔积。 假设您有长度为n1,n2,…,nk的k
列表,那么它将是n1 x n2 x。。。x nk
因此,是的,它是多项式。不,它是指数的,因为网格搜索是蛮力(参见) 如果您有长度为
n的k
列表₁, …, Nₖ代码>其中min(n₁, …, Nₖ) = a>1然后T(k)=n₁ ×n₂ ×…×nₖ ∈ Ω(a)ᵏ)代码>