Python 我们是否需要GPU系统来培养深度学习模式?
我已经创建了一个编码器-解码器模型,带有预先训练过的100D手套嵌入,以创建一个抽象的文本摘要器。该数据集有Python 我们是否需要GPU系统来培养深度学习模式?,python,machine-learning,keras,deep-learning,glove,Python,Machine Learning,Keras,Deep Learning,Glove,我已经创建了一个编码器-解码器模型,带有预先训练过的100D手套嵌入,以创建一个抽象的文本摘要器。该数据集有4300篇article及其摘要数据。文章的词汇量为48549,摘要的词汇量为19130输入、输出变量的总内存大小=7.5Gb 以下是基本的编码器-解码器型号: latent_dim = 1024 encoder_inputs = Input(shape=(max_x_len,)) emb1 = Embedding(len(x_voc), 100, weights=[x_voc], tra
4300篇
article及其摘要数据。文章的词汇量为48549
,摘要的词汇量为19130
<代码>输入、输出变量的总内存大小=7.5Gb
以下是基本的编码器-解码器型号:
latent_dim = 1024
encoder_inputs = Input(shape=(max_x_len,))
emb1 = Embedding(len(x_voc), 100, weights=[x_voc], trainable = False)(encoder_inputs)
encoder = LSTM(latent_dim, return_state=True)
encoder_outputs, state_h, state_c = encoder(emb1)
decoder_inputs = Input(shape=(None,))
emb2 = Embedding(len(y_voc), 100, weights=[y_voc], trainable = False)(decoder_inputs)
decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_outputs0, _, _ = decoder_lstm(emb2, initial_state=[state_h, state_c])
decoder_dense = Dense(len(y_voc), activation='softmax')
decoder_outputs = decoder_dense(decoder_outputs0)
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
当我对整个数据进行训练时,spyder消耗99%的内存,系统停止
我的系统配置如下:
OS - windows 10 (64-bit)
Ram - 8Gb
Processor - Intel(R) Core(TM) i5-3470
ROM - 300Gb
我想进一步-
- 向模型中添加更多数据和图层
- 添加注意层
- 执行伯特
请建议解决方案或合适的系统配置。执行深度学习程序和简单ML程序之间有区别。 在deeplering中,我们实际上是在处理张量(意味着最小向量),所以为了处理deepmodel,我们需要一些处理张量的高效处理单元。可能有一些专门的系统在神经网络程序上工作。 因此,为了执行神经网络模型,我们需要GPU或TPU来处理从一层神经元传递到另一层神经元的数据。 CPU可以工作,但CPU并不是专门为神经网络模型工作的。CPU被分配在整个系统上工作,基本上计算程序在CPU上执行得更快。 希望这将对您有所帮助。这包含多个文本摘要实现,它优化了学习参数,可以在google colab上轻松高效地运行,我认为它可能会很有帮助 它还详细讨论了这些模型是如何在一个特定的环境中构建的
希望这会有所帮助。尝试使用Google Colab或Kaggle内核。Colab也会耗尽内存。减少批处理大小,编写一个数据加载器,将数据加载到提要上,并在不需要时从内存中释放。然后还牺牲了训练速度。我也想提高训练速度。另外,批处理大小只有32。我们不可能向您推荐特定的系统配置,我只能说8 GB RAM是不够的,请尝试使用32 GB RAM的系统。