Machine learning 在tensorflow中进行超参数搜索时,是否应设置随机种子数?

Machine learning 在tensorflow中进行超参数搜索时,是否应设置随机种子数?,machine-learning,deep-learning,hyperparameters,Machine Learning,Deep Learning,Hyperparameters,考虑到像神经网络这样的算法是随机的,在运行超参数搜索之前是否应该设置一个随机种子?如果在搜索最佳超参数时未设置随机种子,如何确保在训练模型时获得与具有最佳超参数的场景相同的结果 有人说,在GPU上运行时,我们无论如何都无法获得可复制的结果,但在CPU上运行训练如何?“在运行超参数搜索之前是否应该设置一个随机种子?”: 有很多超参数搜索策略,包括随机搜索、网格搜索、称为“从粗到细”的随机和网格的混合、贝叶斯方法等。从全局角度来看,这些策略广泛地探索可行可能性的空间,其中一些策略然后在“好”附近进行

考虑到像神经网络这样的算法是随机的,在运行超参数搜索之前是否应该设置一个随机种子?如果在搜索最佳超参数时未设置随机种子,如何确保在训练模型时获得与具有最佳超参数的场景相同的结果

有人说,在GPU上运行时,我们无论如何都无法获得可复制的结果,但在CPU上运行训练如何?

“在运行超参数搜索之前是否应该设置一个随机种子?”: 有很多超参数搜索策略,包括随机搜索、网格搜索、称为“从粗到细”的随机和网格的混合、贝叶斯方法等。从全局角度来看,这些策略广泛地探索可行可能性的空间,其中一些策略然后在“好”附近进行尝试早期实验中发现的超参数组合

“如果在搜索最佳超参数时未设置随机种子,如何确保在训练模型时获得与具有最佳超参数的场景相同的结果?” 即使最初是在程序员设置的实际范围内随机选择的,您也应该跟踪您所探索的不同超参数组合(在上面的策略部分中描述)。我建议首先考虑随机性作为一种策略,然后分别考虑如何实现再现性。是的,如果你应用你反复跟踪的同一个超参数,你可能会得到不同的结果,但从理论上讲,平均而言,这应该比你在最初探索潜在超参数组合时发现的最差的超参数集要好得多。

“在运行超参数搜索之前是否应设置随机种子?”: 有很多超参数搜索策略,包括随机搜索、网格搜索、称为“从粗到细”的随机和网格的混合、贝叶斯方法等。从全局角度来看,这些策略广泛地探索可行可能性的空间,其中一些策略然后在“好”附近尝试“早期实验中发现的超参数组合

“如果在搜索最佳超参数时未设置随机种子,如何确保在训练模型时获得与具有最佳超参数的场景相同的结果?”
即使最初是在程序员设置的实际范围内随机选择的,您也应该跟踪您所探索的不同超参数组合(在上面的策略部分中描述)。我建议首先考虑随机性作为一种策略,然后分别考虑如何实现再现性。是的,如果你应用你反复跟踪的同一个超参数,你可能会得到不同的结果,但从理论上讲,平均而言,这应该比您在初步探索潜在超参数组合时发现的最差超参数集要好得多。

因此,您是说,由于找到了最佳超参数集,因此100%的模型再现性可以忽略不计。此外,它将与搜索过程中产生的结果相差不远,而且无论如何,它将击败其他弱超参数集。因此,您的意思是,由于找到了最佳超参数集,因此100%的模型再现性可以忽略不计。此外,它与搜索过程中产生的结果也不会有太大的差距,它将击败其他弱超参数。我投票结束这个问题,因为它不是关于ML方法中定义的编程,而是关于ML方法。请参阅机器学习中的介绍和说明。我投票结束这个问题,因为它不是关于ML中定义的编程方法。请参阅机器学习中的介绍和说明。