Tensorflow 如果通过for循环创建模型,Keras将挂起
我目前对以下代码片段感到困惑:所有代码片段都是 我有一个函数,它使用顺序API编译并适应一个新的keras模型:Tensorflow 如果通过for循环创建模型,Keras将挂起,tensorflow,machine-learning,keras,deep-learning,tf.keras,Tensorflow,Machine Learning,Keras,Deep Learning,Tf.keras,我目前对以下代码片段感到困惑:所有代码片段都是 我有一个函数,它使用顺序API编译并适应一个新的keras模型: def fit_model(trainX, trainy): trainy_enc = to_categorical(trainy) # define model model = Sequential() model.add(Dense(25, input_dim=2, activation='relu')) model.add(Dense(3
def fit_model(trainX, trainy):
trainy_enc = to_categorical(trainy)
# define model
model = Sequential()
model.add(Dense(25, input_dim=2, activation='relu'))
model.add(Dense(3, activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
# fit model
model.fit(trainX, trainy_enc,epochs=200, verbose=0)
return model
我现在想使用速记工具创建例如10个模型,以创建、编译和拟合模型,并将其存储在列表中:
n_members = 10
members = [fit_model(trainX, trainy) for _ in range(n_members)]
问题是Keras(随机)似乎挂断了电话,训练进度不再继续。它确实是随机的,有时发生在创建的第一个模型上,有时发生在第五个模型上。它所悬挂的时代也是任意的
我怎样才能摆脱这个问题?我不确定,所有内容都是按照源代码教程中的方式实现的,而且似乎都是这样。您是否使用tensorflow作为后端?哪个版本?如果您使用的是2.0,可能会尝试返回到tf1。是的,我使用的是TF2.0,但我也尝试了降级到tf1.15,这会导致相同的问题。您是否使用tensorflow作为后端?哪个版本?如果你使用的是2.0,可能会尝试返回tf1。是的,我使用的是TF2.0,但我也尝试了降级到tf1.15,这会导致同样的问题