Deep learning 对于可以';不要把所有的都记在记忆里

Deep learning 对于可以';不要把所有的都记在记忆里,deep-learning,nlp,Deep Learning,Nlp,我有一个大约300k个样本的数据集,其中每个样本都是一个约25k个单词的文本文档 我可以将其全部加载到内存中,但我不能真正使用GRU网络,因为我只是由于参数的数量而遇到内存错误 我尝试将最大vocab长度设置为35000,最大序列长度设置为2500,之后我可以运行GRU网络。我获得了一个稍好的精确度,但我丢失了90%的数据。一个解决方案可以是一次加载一个较小的输入数据集,然后迭代整个数据集,或者在培训中使用小批量

我有一个大约300k个样本的数据集,其中每个样本都是一个约25k个单词的文本文档

我可以将其全部加载到内存中,但我不能真正使用GRU网络,因为我只是由于参数的数量而遇到内存错误


我尝试将最大vocab长度设置为35000,最大序列长度设置为2500,之后我可以运行GRU网络。我获得了一个稍好的精确度,但我丢失了90%的数据。

一个解决方案可以是一次加载一个较小的输入数据集,然后迭代整个数据集,或者在培训中使用小批量