Deep learning 如何使用GPU培训数百万doc2vec嵌入式设备?

Deep learning 如何使用GPU培训数百万doc2vec嵌入式设备?,deep-learning,nlp,word-embedding,chainer,Deep Learning,Nlp,Word Embedding,Chainer,我正在尝试根据用户浏览历史(标记为用户id的URL)来训练doc2vec。我使用chainer深度学习框架 有超过2000万(用户id和URL)的嵌入需要初始化,而这些嵌入不适合GPU内部内存(最大可用12GB)。关于CPU的培训非常慢 我尝试使用在这里给出的chainer中编写的代码 如果有任何选项,请建议您尝试。您也可以参考chainer officialword2vec示例 您是否已经尝试过使用GPU进行培训?通常,只将批量大小的数据提取到GPU内存中,因此数据总数(20M)不会影

我正在尝试根据用户浏览历史(标记为用户id的URL)来训练doc2vec。我使用chainer深度学习框架

有超过2000万(用户id和URL)的嵌入需要初始化,而这些嵌入不适合GPU内部内存(最大可用12GB)。关于CPU的培训非常慢

我尝试使用在这里给出的chainer中编写的代码


如果有任何选项,请建议您尝试。

您也可以参考chainer official
word2vec
示例


您是否已经尝试过使用GPU进行培训?通常,只将批量大小的数据提取到GPU内存中,因此数据总数(20M)不会影响GPU内存限制。

您自己找到(并排除?)了哪些
尝试选项?20M是vocab的大小,在开始培训之前,需要初始化嵌入并复制到GPU。数据的大小不是一个问题,因为它可以成批处理。