Python tensorflow session.run()在尝试根据教程代码还原rnn模型时挂起

Python tensorflow session.run()在尝试根据教程代码还原rnn模型时挂起,python,tensorflow,recurrent-neural-network,Python,Tensorflow,Recurrent Neural Network,我一直在浏览TenserFlow教程中的RNN代码: 原始RNN代码如下所示: 我通过以下方式将经过培训的RNN模型保存为“训练模型” if FLAGS.save_path: print("Saving model to %s." % FLAGS.save_path) sv.saver.save(session, FLAGS.save_path, global_step=sv.global_step) 现在,我正试图恢复保存的模型,并通过 with tf.name_scope(

我一直在浏览TenserFlow教程中的RNN代码:

原始RNN代码如下所示:

我通过以下方式将经过培训的RNN模型保存为“训练模型”

if FLAGS.save_path:
    print("Saving model to %s." % FLAGS.save_path)
    sv.saver.save(session, FLAGS.save_path, global_step=sv.global_step)
现在,我正试图恢复保存的模型,并通过

with tf.name_scope("Test"):
    test_input = PTBInput(config=eval_config, data=test_data, name="TestInput")
    with tf.variable_scope("Model", reuse=None, initializer=initializer):
        mtest = PTBModel(is_training=False, config=eval_config,
                     input_=test_input)

save = tf.train.Saver()

with tf.Session() as session:
    save.restore(session, tf.train.latest_checkpoint("./"))
    test_perplexity = run_epoch(session, mtest)
似乎模型加载正确,但它挂在了线路上

    vals = session.run(fetches, feed_dict)
在函数
run\u epoch
中,当调用计算
test\u complexity
CTRL-C
无法退出程序,并且GPU利用率为0%,因此它很可能在某些方面被阻止


任何帮助都将不胜感激

尝试从源安装Tensorflow。建议使用此选项,因为您可以为特定体系结构(GPU、CUDA、cuDNN)构建所需的Tensorflow二进制文件

这甚至被认为是改善Tensorflow性能的最佳实践之一。检查一下。这篇文章的一小段摘录如下:

通过针对目标硬件的编译器优化从源代码构建,并确保安装了最新的CUDA平台和cuDNN库,从而实现最高性能的安装


当构建Tensorflow二进制文件所使用的配置计算能力与GPU不同时,通常会出现您提到的问题。但是从源代码安装它可以让您选择配置特定的计算能力。检查。

尝试从源代码安装Tensorflow。建议使用此选项,因为您可以为特定体系结构(GPU、CUDA、cuDNN)构建所需的Tensorflow二进制文件

这甚至被认为是改善Tensorflow性能的最佳实践之一。检查一下。这篇文章的一小段摘录如下:

通过针对目标硬件的编译器优化从源代码构建,并确保安装了最新的CUDA平台和cuDNN库,从而实现最高性能的安装


当构建Tensorflow二进制文件所使用的配置计算能力与GPU不同时,通常会出现您提到的问题。但是从源代码安装它可以让您选择配置特定的计算能力。检查。

您可以在pdb中运行此部件吗?控制+c应该会给你更多的信息。在save.restore()行之后,在控制台添加:import pdb pdb.set_trace(),执行run_epoch()检查答案是否解决了问题;它是我的,虽然我的问题有点不同。你能在pdb中运行这个部分吗?控制+c应该会给你更多的信息。在save.restore()行之后,在控制台添加:import pdb pdb.set_trace(),执行run_epoch()检查答案是否解决了问题;这是我的问题,尽管我的问题有点不同。