Keras fit_生成器内存泄漏
对不起,我的英语不好。 谢谢你的帮助。Keras fit_生成器内存泄漏,keras,Keras,对不起,我的英语不好。 谢谢你的帮助。 我的内存是16G,在6G gpu上运行。我找不到发电机有什么毛病。使用theano后端。是否与以下已知问题有关? 该问题中的基本建议,以及对我有效的建议,是将kwargpickle\u safe=False添加到fit\u生成器调用中。是否与以下已知问题相关? 该问题中的基本建议,以及对我有效的建议,是将kwargpickle\u safe=False添加到fit\u生成器调用中 def g(): f_train=open('train.txt
我的内存是16G,在6G gpu上运行。我找不到发电机有什么毛病。使用theano后端。是否与以下已知问题有关?
该问题中的基本建议,以及对我有效的建议,是将kwarg
pickle\u safe=False
添加到fit\u生成器调用中。是否与以下已知问题相关?
该问题中的基本建议,以及对我有效的建议,是将kwargpickle\u safe=False
添加到fit\u生成器
调用中
def g():
f_train=open('train.txt','r')
f_label=open('type_train.txt','r')
train=[]
label=[]
count=0
num=0
for i,j in zip(f_train,f_label):
train.append(np.array(i.strip().split(',')))
label.append(np.array(j.strip().split()))
count+=1
if count==200 :
count=0
train=np.array(train,int)
train=pad_sequences(train,140)
label=np.array(label,int)
yield (train,label)
num+=1
#loss=model.train_on_batch=(train,label)
#print (num)
train=[]
label=[]
if num==19000:
break
f_train.close()
f_label.close()
model = Sequential()
model.add(Embedding(215625 + 1,20,input_length=140,trainable=True))
#del word_index
model.add(LSTM(30))
model.add(Dense(6,activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy'])
model.fit_generator(g(),steps_per_epoch=19000,epochs=3)