Tensorflow 如果通过for循环创建模型,Keras将挂起

Tensorflow 如果通过for循环创建模型,Keras将挂起,tensorflow,machine-learning,keras,deep-learning,tf.keras,Tensorflow,Machine Learning,Keras,Deep Learning,Tf.keras,我目前对以下代码片段感到困惑:所有代码片段都是 我有一个函数,它使用顺序API编译并适应一个新的keras模型: def fit_model(trainX, trainy): trainy_enc = to_categorical(trainy) # define model model = Sequential() model.add(Dense(25, input_dim=2, activation='relu')) model.add(Dense(3

我目前对以下代码片段感到困惑:所有代码片段都是

我有一个函数,它使用顺序API编译并适应一个新的keras模型:

def fit_model(trainX, trainy):
    trainy_enc = to_categorical(trainy)
    # define model
    model = Sequential()
    model.add(Dense(25, input_dim=2, activation='relu'))
    model.add(Dense(3, activation='softmax'))
    model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
    # fit model
    model.fit(trainX, trainy_enc,epochs=200, verbose=0)
    return model
我现在想使用速记工具创建例如10个模型,以创建、编译和拟合模型,并将其存储在列表中:

n_members = 10
members = [fit_model(trainX, trainy) for _ in range(n_members)]
问题是Keras(随机)似乎挂断了电话,训练进度不再继续。它确实是随机的,有时发生在创建的第一个模型上,有时发生在第五个模型上。它所悬挂的时代也是任意的


我怎样才能摆脱这个问题?我不确定,所有内容都是按照源代码教程中的方式实现的,而且似乎都是这样。

您是否使用tensorflow作为后端?哪个版本?如果您使用的是2.0,可能会尝试返回到tf1。是的,我使用的是TF2.0,但我也尝试了降级到tf1.15,这会导致相同的问题。您是否使用tensorflow作为后端?哪个版本?如果你使用的是2.0,可能会尝试返回tf1。是的,我使用的是TF2.0,但我也尝试了降级到tf1.15,这会导致同样的问题