与GPu的Lua和Torch问题

与GPu的Lua和Torch问题,lua,gpu,torch,opennmt,Lua,Gpu,Torch,Opennmt,我正在尝试从OpenNMT运行基于Lua的程序。我在这里遵循了以下程序: 我使用了以下命令: th train.lua -data textsum-train.t7 -save_model textsum1 -gpuid 0 1 2 3 4 5 6 7 我使用的是8GPU,但进程仍然非常慢,好像进程在CPU上运行一样。请告诉我优化GPU使用的解决方案。 以下是GP使用情况的统计信息: 请告诉我如何使用完整的GPU使进程运行得更快。我可以使用11GB,但该进程只消耗2GB或更少。因此,这个过

我正在尝试从OpenNMT运行基于Lua的程序。我在这里遵循了以下程序:

我使用了以下命令:

 th train.lua -data textsum-train.t7 -save_model textsum1 -gpuid 0 1 2 3 4 5 6 7
我使用的是8GPU,但进程仍然非常慢,好像进程在CPU上运行一样。请告诉我优化GPU使用的解决方案。
以下是GP使用情况的统计信息:

请告诉我如何使用完整的GPU使进程运行得更快。我可以使用11GB,但该进程只消耗2GB或更少。因此,这个过程非常慢。

根据,您需要从
gpuid
选项的后面删除
0
,因为
0
代表CPU,您可以有效地将训练速度降低到CPU驱动的速度

要使用数据并行,请为
-gpuid
选项分配一个GPU标识符列表。例如:

th train.lua-data/demo-train.t7-save_model demo-gpuid 1 2 4

将使用CUDA API返回的机器的第一个、第二个和第四个GPU


我建议你在OpenNMT论坛上联系Jean或Guillaume,他们非常积极,随时准备提供帮助。你解决问题了吗?是的,解决了。。明白了。那就随意发布答案吧。gpu的索引从1开始,而不是0。0表示CPU。@WiktorStribiżew亲爱的朋友,感谢您的关心。但几乎一年过去了。我之前一直在做,但后来它从我的手转到了另一个。现在我正在研究一些不同的概念。因此,我不能给你更多的细节。对不起,谢谢你的回答。但你可以看到我的评论。我已经对它发表了评论。因为我找到了证明我决定单独发布的文档。