Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/327.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Keras LSTM恒定损耗_Python_Tensorflow_Keras_Lstm - Fatal编程技术网

Python Keras LSTM恒定损耗

Python Keras LSTM恒定损耗,python,tensorflow,keras,lstm,Python,Tensorflow,Keras,Lstm,我有一个问题,我的LSTM网络的丢失从一个时代到另一个时代根本没有改变 这不是系统性的。给定相同的代码和相同的数据集,一次执行可以正常运行,损失可以随着每个历元而减少,而另一次执行可能会遇到持续损失问题。我无法确定是什么让它这样或那样,它似乎是随机的 为什么相同的代码和数据集会导致两种不同的结果? 型号代码: mdl = Sequential() mdl.add(Dense(3, input_shape=(1, lags), activation='relu')) mdl.add(LSTM(6,

我有一个问题,我的LSTM网络的丢失从一个时代到另一个时代根本没有改变

这不是系统性的。给定相同的代码和相同的数据集,一次执行可以正常运行,损失可以随着每个历元而减少,而另一次执行可能会遇到持续损失问题。我无法确定是什么让它这样或那样,它似乎是随机的

为什么相同的代码和数据集会导致两种不同的结果?

型号代码:

mdl = Sequential()
mdl.add(Dense(3, input_shape=(1, lags), activation='relu'))
mdl.add(LSTM(6, activation='relu'))
mdl.add(Dense(1, activation='relu'))
mdl.compile(loss='mean_squared_error', optimizer='adam')
mdl.fit(X_train, y_train, epochs=10, verbose=2)
执行#1(成功):

执行#2(持续损失):


为什么??由于神经网络权值的随机初始化。这定义了权重空间中的起点,在您的案例中,有些起点似乎非常糟糕。

为什么?由于神经网络权值的随机初始化。这在权重空间中定义了起始点,在您的情况下,某些起始点似乎非常糟糕。

它可能卡在本地最小值中。您可以修复随机种子以修复结果。它可能卡在本地最小值中。您可以修复随机种子以修复结果。这非常有用,谢谢。所以为了避免这种情况,我应该用特定的值初始化权重吗?@JonathanHartnagel不,不是真的,如果它卡住了,除了重新训练之外,没有别的解决办法。也许改变学习速率会有所帮助,或者使用其他优化器,或者不同的模型,但一般来说,这不是您可以调试的。您应该指定用于更可复制结果的种子。@VegardKT我认为使用随机性是有充分理由的。我想人们不会在生产中使用固定的种子。这很有帮助,谢谢。所以为了避免这种情况,我应该用特定的值初始化权重吗?@JonathanHartnagel不,不是真的,如果它卡住了,除了重新训练之外,没有别的解决办法。也许改变学习速率会有所帮助,或者使用其他优化器,或者不同的模型,但一般来说,这不是您可以调试的。您应该指定用于更可复制结果的种子。@VegardKT我认为使用随机性是有充分理由的。我想人们不会在生产中使用固定的种子。
Epoch 1/10
 - 1s - loss: 0.0401
Epoch 2/10
 - 0s - loss: 0.0091
Epoch 3/10
 - 0s - loss: 0.0025
Epoch 4/10
 - 0s - loss: 0.0012
Epoch 5/10
 - 0s - loss: 8.3705e-04
Epoch 6/10
 - 0s - loss: 6.6625e-04
Epoch 7/10
 - 0s - loss: 5.7399e-04
Epoch 8/10
 - 0s - loss: 5.4451e-04
Epoch 9/10
 - 0s - loss: 5.0578e-04
Epoch 10/10
 - 0s - loss: 4.7520e-04
Epoch 1/10
 - 1s - loss: 0.0884
Epoch 2/10
 - 0s - loss: 0.0884
Epoch 3/10
 - 0s - loss: 0.0884
Epoch 4/10
 - 0s - loss: 0.0884
Epoch 5/10
 - 0s - loss: 0.0884
Epoch 6/10
 - 0s - loss: 0.0884
Epoch 7/10
 - 0s - loss: 0.0884
Epoch 8/10
 - 0s - loss: 0.0884
Epoch 9/10
 - 0s - loss: 0.0884
Epoch 10/10
 - 0s - loss: 0.0884