Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/jsf-2/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 我们是否需要GPU系统来培养深度学习模式?_Python_Machine Learning_Keras_Deep Learning_Glove - Fatal编程技术网

Python 我们是否需要GPU系统来培养深度学习模式?

Python 我们是否需要GPU系统来培养深度学习模式?,python,machine-learning,keras,deep-learning,glove,Python,Machine Learning,Keras,Deep Learning,Glove,我已经创建了一个编码器-解码器模型,带有预先训练过的100D手套嵌入,以创建一个抽象的文本摘要器。该数据集有4300篇article及其摘要数据。文章的词汇量为48549,摘要的词汇量为19130输入、输出变量的总内存大小=7.5Gb 以下是基本的编码器-解码器型号: latent_dim = 1024 encoder_inputs = Input(shape=(max_x_len,)) emb1 = Embedding(len(x_voc), 100, weights=[x_voc], tra

我已经创建了一个编码器-解码器模型,带有预先训练过的100D手套嵌入,以创建一个抽象的文本摘要器。该数据集有
4300篇
article及其摘要数据。文章的词汇量为
48549
,摘要的词汇量为
19130
<代码>输入、输出变量的总内存大小=7.5Gb

以下是基本的编码器-解码器型号:

latent_dim = 1024
encoder_inputs = Input(shape=(max_x_len,))
emb1 = Embedding(len(x_voc), 100, weights=[x_voc], trainable = False)(encoder_inputs)

encoder = LSTM(latent_dim, return_state=True)
encoder_outputs, state_h, state_c = encoder(emb1)

decoder_inputs = Input(shape=(None,))
emb2 = Embedding(len(y_voc), 100, weights=[y_voc], trainable = False)(decoder_inputs)

decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_outputs0, _, _ = decoder_lstm(emb2, initial_state=[state_h, state_c])

decoder_dense = Dense(len(y_voc), activation='softmax')
decoder_outputs = decoder_dense(decoder_outputs0)

model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
当我对整个数据进行训练时,spyder消耗99%的内存,系统停止

我的系统配置如下:

OS - windows 10 (64-bit)
Ram - 8Gb
Processor - Intel(R) Core(TM) i5-3470
ROM - 300Gb
我想进一步-

  • 向模型中添加更多数据和图层
  • 添加注意层
  • 执行伯特

请建议解决方案或合适的系统配置。

执行深度学习程序和简单ML程序之间有区别。 在deeplering中,我们实际上是在处理张量(意味着最小向量),所以为了处理deepmodel,我们需要一些处理张量的高效处理单元。可能有一些专门的系统在神经网络程序上工作。 因此,为了执行神经网络模型,我们需要GPU或TPU来处理从一层神经元传递到另一层神经元的数据。 CPU可以工作,但CPU并不是专门为神经网络模型工作的。CPU被分配在整个系统上工作,基本上计算程序在CPU上执行得更快。 希望这将对您有所帮助。

这包含多个文本摘要实现,它优化了学习参数,可以在google colab上轻松高效地运行,我认为它可能会很有帮助

它还详细讨论了这些模型是如何在一个特定的环境中构建的


希望这会有所帮助。

尝试使用Google Colab或Kaggle内核。Colab也会耗尽内存。减少批处理大小,编写一个数据加载器,将数据加载到提要上,并在不需要时从内存中释放。然后还牺牲了训练速度。我也想提高训练速度。另外,批处理大小只有32。我们不可能向您推荐特定的系统配置,我只能说8 GB RAM是不够的,请尝试使用32 GB RAM的系统。