TensorFlow:并行运行调用TF的Python脚本的多个版本
我正在完善一个Python脚本,它实现了基于Keras+TensorFlow的DQN算法。这是一个非常经验性的试错过程,所以我想在后台运行脚本,同时调整代码中的一些超参数,并并行运行第二个版本。如果我现在尝试这样做,我会收到一个错误,因为GPU正在使用。我通过SSH使用一台带有Intel Xeon和一个NVIDIA GeForce GTX 780 GPU的服务器。可能吗?如何操作?默认情况下,TensorFlow将在启动时预先分配所有可用的GPU内存,以确保我们不会浪费时间等待单个内存分配。如果您希望tf的并发实例运行,可以通过允许GPU堆增长来禁用:TensorFlow:并行运行调用TF的Python脚本的多个版本,python,tensorflow,deep-learning,Python,Tensorflow,Deep Learning,我正在完善一个Python脚本,它实现了基于Keras+TensorFlow的DQN算法。这是一个非常经验性的试错过程,所以我想在后台运行脚本,同时调整代码中的一些超参数,并并行运行第二个版本。如果我现在尝试这样做,我会收到一个错误,因为GPU正在使用。我通过SSH使用一台带有Intel Xeon和一个NVIDIA GeForce GTX 780 GPU的服务器。可能吗?如何操作?默认情况下,TensorFlow将在启动时预先分配所有可用的GPU内存,以确保我们不会浪费时间等待单个内存分配。如果
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)
但是请注意,如果您的模型可以在一个版本运行的情况下使用GPU,您不希望同时运行两个版本,因为这样会比较慢