Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 在GPU上运行文本分类-CNN_Tensorflow_Deep Learning_Gpu_Text Classification_Tensorflow Gpu - Fatal编程技术网

Tensorflow 在GPU上运行文本分类-CNN

Tensorflow 在GPU上运行文本分类-CNN,tensorflow,deep-learning,gpu,text-classification,tensorflow-gpu,Tensorflow,Deep Learning,Gpu,Text Classification,Tensorflow Gpu,基于这个github链接,我想在GPU上对Ubuntu-16.04上的数据集进行分类。 为了在GPU上运行,我将text_cnn.py上的第23行更改为:带有tf.device('/GPU:0')、tf.name_范围(“嵌入”): 我的列车阶段的第一个数据集有9000个文档,其大小约为120M 第二个用于列车的文件有1300个,其大小约为1M 使用GPU在Titan X服务器上运行后,出现错误。 请指导我,我如何解决这个问题? 谢谢。您遇到内存不足错误,所以首先要尝试的是更小的批处理大小

基于这个github链接,我想在GPU上对Ubuntu-16.04上的数据集进行分类。 为了在GPU上运行,我将text_cnn.py上的第23行更改为:带有tf.device('/GPU:0')、tf.name_范围(“嵌入”):

我的列车阶段的第一个数据集9000个文档,其大小约为120M 第二个用于列车的文件有1300个,其大小约为1M

使用GPU在Titan X服务器上运行后,出现错误。

请指导我,我如何解决这个问题?
谢谢。

您遇到内存不足错误,所以首先要尝试的是更小的批处理大小 (默认值为64)。首先,我想说:


/train.py——批处理大小32

大部分内存用于保存嵌入参数和卷积参数。我建议减少:

  • EMBEDDING\u DIM
  • NUM\u过滤器
  • 批量大小
尝试嵌入\u dim=16、batch\u size=16和num\u filters=32,如果可以的话,一次增加2倍

另外,如果您使用docker虚拟机运行tensorflow,那么默认情况下,您可能会被限制为仅使用1G内存,尽管您的机器中有16G内存。有关更多详细信息,请参阅。

我尝试了--batch_size 32--./traint.py,只运行了100个步骤,之后由于出现错误而终止。!!!!!