Deep learning 深度学习概念-超参数调整权重RNN/LSTM

Deep learning 深度学习概念-超参数调整权重RNN/LSTM,deep-learning,lstm,recurrent-neural-network,Deep Learning,Lstm,Recurrent Neural Network,当我们建立模型并对其进行训练时,除非指定种子,否则初始权重是随机初始化的 正如我们所知,我们可以调整各种参数,如年代、优化器、批量大小等,以找到最佳模型 我遇到的问题是:即使我们在调整后找到了最好的模型,权重也会不同,产生不同的模型和结果。因此,如果我们用最好的参数编译并再次运行它,那么最好的模型可能不是最好的。如果我们用再现性参数来分配权重,我们不知道这些是否是最佳权重。另一方面,如果我们调整权重,那么最佳参数就不再是最佳参数了?我陷入了困境。与其他参数相比,是否有关于首先调整哪些参数的一般指

当我们建立模型并对其进行训练时,除非指定种子,否则初始权重是随机初始化的

正如我们所知,我们可以调整各种参数,如年代、优化器、批量大小等,以找到最佳模型

我遇到的问题是:即使我们在调整后找到了最好的模型,权重也会不同,产生不同的模型和结果。因此,如果我们用最好的参数编译并再次运行它,那么最好的模型可能不是最好的。如果我们用再现性参数来分配权重,我们不知道这些是否是最佳权重。另一方面,如果我们调整权重,那么最佳参数就不再是最佳参数了?我陷入了困境。与其他参数相比,是否有关于首先调整哪些参数的一般指南

还是整个逻辑有缺陷,我想得太多了

我们随机初始化权重,以确保每个节点的行为不同于其他节点。 取决于超参数sepochs、批大小等,迭代次数。权重将更新,直到最后一次迭代。最后,我们将更新后的权重称为模型。 种子用于控制初始化的随机性。如果我没有错,一个好的学习算法目标函数和优化器会收敛,而不管种子值如何。 同样,一个好的模型意味着调整所有的超参数,确保模型不欠拟合。 另一方面,即使是模型也不应该过度拟合。 没有什么比最佳参数更重要的了——权重、偏差,我们需要不断调整模型,直到结果令人满意,主要部分是数据处理。
因为6而被标记为最佳答案。经过进一步思考,我得出结论,没有最佳模型,应该是最佳平均模型,我们对结果感到满意。