Keras对skip-gram字嵌入的实现非常缓慢

Keras对skip-gram字嵌入的实现非常缓慢,keras,keras-2,Keras,Keras 2,我正在尝试使用上发布的示例来训练skip-gram单词嵌入 在GPU GeForce GTX 1080上使用英文维基百科(~100万句) 训练时间非常缓慢,估计为27天/次,声音大小为50k,这对于非常简单的模型来说有点奇怪。我正在使用CUDA 8和CUDNN 5.1。后端是tensorflow 1.2.0&我使用的是keras 2.0.2。 我想知道以前是否有人用keras实现来训练skip-gram模型?有没有想过为什么上面的实现非常缓慢?我确保预处理不是主要问题。 谢谢,找到答案了吗?我

我正在尝试使用上发布的示例来训练skip-gram单词嵌入

在GPU GeForce GTX 1080上使用英文维基百科(~100万句)

训练时间非常缓慢,估计为27天/次,声音大小为50k,这对于非常简单的模型来说有点奇怪。我正在使用CUDA 8和CUDNN 5.1。后端是tensorflow 1.2.0&我使用的是keras 2.0.2。 我想知道以前是否有人用keras实现来训练skip-gram模型?有没有想过为什么上面的实现非常缓慢?我确保预处理不是主要问题。
谢谢,

找到答案了吗?我不确定这是否有什么不同,但这一实现与word2vec的既定公式不同。特别是如何收集阴性样本并将其纳入损失因素。