Deep learning 如何继续为保存后加载的Keras模型进行培训?

Deep learning 如何继续为保存后加载的Keras模型进行培训?,deep-learning,keras,Deep Learning,Keras,之后,我能够保存并加载一个模型。Keras使用tensorflow作为后端 但是,是否可以对这些保存和加载的模型进行更多的培训 下面是从中借用的代码。然后编辑 在下面的代码中,模型经过75个历元的训练并保存,然后再次加载 然而,当我尝试用更多的75个纪元对其进行进一步训练时,似乎模型并没有经过训练,并且我在没有任何修改的情况下得到了相同的结果 # -*- coding: utf-8 -*- from keras.models import Sequential from keras.layer

之后,我能够保存并加载一个模型。Keras使用tensorflow作为后端

但是,是否可以对这些保存和加载的模型进行更多的培训

下面是从中借用的代码。然后编辑

在下面的代码中,模型经过75个历元的训练并保存,然后再次加载

然而,当我尝试用更多的75个纪元对其进行进一步训练时,似乎模型并没有经过训练,并且我在没有任何修改的情况下得到了相同的结果

# -*- coding: utf-8 -*-

from keras.models import Sequential
from keras.layers import Dense
from keras.models import model_from_json
import numpy
import os
# fix random seed for reproducibility
numpy.random.seed(7)
# load pima indians dataset
dataset = numpy.loadtxt("pima-indians-diabetes.txt", delimiter=",")
# split into input (X) and output (Y) variables
X = dataset[:,0:8]
Y = dataset[:,8]
# create model
model = Sequential()
model.add(Dense(12, input_dim=8, kernel_initializer='uniform', activation='relu'))
model.add(Dense(8, kernel_initializer='uniform', activation='relu'))
model.add(Dense(1, kernel_initializer='uniform', activation='sigmoid'))
# Compile model
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
# Fit the model
model.fit(X, Y, epochs=75, batch_size=10, verbose=0)
# evaluate the model
scores = model.evaluate(X, Y, verbose=0)
print("%s: %.2f%%" % (model.metrics_names[1], scores[1]*100))

# serialize model to JSON
model_json = model.to_json()
with open("model.json", "w") as json_file: json_file.write(model_json)

# serialize weights to HDF5
model.save_weights("model.h5")
print("Saved model to disk")

# later...

# load json and create model
json_file = open('model.json', 'r')
loaded_model_json = json_file.read()
json_file.close()
loaded_model = model_from_json(loaded_model_json)
# load weights into new model
loaded_model.load_weights("model.h5")
print("Loaded model from disk")

# evaluate loaded model on test data
loaded_model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy'])
score = loaded_model.evaluate(X, Y, verbose=0)
print("%s: %.2f%%" % (loaded_model.metrics_names[1], score[1]*100))


model.fit(X, Y, epochs=75, batch_size=10, verbose=0)
score = loaded_model.evaluate(X, Y, verbose=0)
print("%s: %.2f%%" % (loaded_model.metrics_names[1], score[1]*100))

从代码中可以看出,您对
加载的\u模型进行了两次评估,但您的额外培训仅在
模型上进行。不需要复制和粘贴不同的变量名,您可以尝试以下方法。。。我发现跟踪有点容易。此外,在注释之间的代码中添加一些空白,这将有助于保持内容的清晰和有序

# Save a model you have trained
model.save('trained_model.h5')

# Delete the model
del model

# Load the model
model = load_model('trained_model.h5')

# Train more on the loaded model
model.fit(data, labels, epochs, batch_size)

不要将
save_weights()
load_weights()
Adam
一起使用。这些函数仅保存模型权重,而不保存优化器。改为使用
model.save()
load\u model()
。再加上使用
model.save
,这将另外保存培训配置和优化器的状态。