Image processing Tensorflow内存泄漏,tf.train.start\u queue\u运行程序(sess=sess)_

Image processing Tensorflow内存泄漏,tf.train.start\u queue\u运行程序(sess=sess)_,image-processing,memory-management,tensorflow,Image Processing,Memory Management,Tensorflow,我已经建立了一个卷积网络,其尺寸为1750*1750,但是它占用的内存比它应该占用的要多,在四个测试图像上使用了27GB 它发生在我添加tf.train.start\u queue\u runners(sess=sess)之后。在此之前,没有问题 有很多代码,因此可以在此处找到所有代码: 我的代码应该没有任何问题,因为我已经彻底检查了它,并从CIFAR-10代码中借用了一些 这里的问题是什么?是我的代码还是Tensorflow库。请记住,输入函数是从Google Cifar-10示例复制过来的

我已经建立了一个卷积网络,其尺寸为1750*1750,但是它占用的内存比它应该占用的要多,在四个测试图像上使用了27GB

它发生在我添加tf.train.start\u queue\u runners(sess=sess)之后。在此之前,没有问题

有很多代码,因此可以在此处找到所有代码:

我的代码应该没有任何问题,因为我已经彻底检查了它,并从CIFAR-10代码中借用了一些

这里的问题是什么?是我的代码还是Tensorflow库。请记住,输入函数是从Google Cifar-10示例复制过来的

下面是我调用队列运行程序的主文件

 import Input
 import Process

 import tensorflow as tf

 def train():
     with tf.Session() as sess:
          images, labels = Process.inputs()

         forward_propgation_results = Process.forward_propagation(images)

         train_loss, cost = Process.error(forward_propgation_results, labels)

         init = tf.initialize_all_variables()

    tf.train.start_queue_runners(sess=sess)

    sess.run(init)

    for i in range(100):
        print(sess.run([train_loss, cost]))
        print(test)

 def main(argv = None):
     train()

 if __name__ == '__main__':
   tf.app.run()