Keras fit_生成器内存泄漏

Keras fit_生成器内存泄漏,keras,Keras,对不起,我的英语不好。 谢谢你的帮助。 我的内存是16G,在6G gpu上运行。我找不到发电机有什么毛病。使用theano后端。是否与以下已知问题有关? 该问题中的基本建议,以及对我有效的建议,是将kwargpickle\u safe=False添加到fit\u生成器调用中。是否与以下已知问题相关? 该问题中的基本建议,以及对我有效的建议,是将kwargpickle\u safe=False添加到fit\u生成器调用中 def g(): f_train=open('train.txt

对不起,我的英语不好。 谢谢你的帮助。
我的内存是16G,在6G gpu上运行。我找不到发电机有什么毛病。使用theano后端。

是否与以下已知问题有关?


该问题中的基本建议,以及对我有效的建议,是将kwarg
pickle\u safe=False
添加到
fit\u生成器调用中。

是否与以下已知问题相关?

该问题中的基本建议,以及对我有效的建议,是将kwarg
pickle\u safe=False
添加到
fit\u生成器
调用中

def g():
    f_train=open('train.txt','r')
    f_label=open('type_train.txt','r')
    train=[]
    label=[]
    count=0
    num=0
    for i,j in zip(f_train,f_label):

        train.append(np.array(i.strip().split(',')))
        label.append(np.array(j.strip().split()))
        count+=1
        if count==200 :
            count=0

            train=np.array(train,int)
            train=pad_sequences(train,140)
            label=np.array(label,int)
            yield (train,label)
            num+=1
            #loss=model.train_on_batch=(train,label)
            #print (num)
            train=[]
            label=[]
        if num==19000:
            break
    f_train.close()
    f_label.close()

model = Sequential()
model.add(Embedding(215625 + 1,20,input_length=140,trainable=True))
#del word_index
model.add(LSTM(30))
model.add(Dense(6,activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy'])


model.fit_generator(g(),steps_per_epoch=19000,epochs=3)