Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/design-patterns/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 张量流。内核在训练时死亡。窗蟒 解释一下。_Python_Debugging_Tensorflow_Anaconda - Fatal编程技术网

Python 张量流。内核在训练时死亡。窗蟒 解释一下。

Python 张量流。内核在训练时死亡。窗蟒 解释一下。,python,debugging,tensorflow,anaconda,Python,Debugging,Tensorflow,Anaconda,这是使用softmax的MNIST代码。 问题出现在 sess.run(train_step,feed_dict={x:batch_xs,y_u:batch_ys}) 在for循环中 只是内核死机并重新启动时出现错误消息。 也许代码不是问题,因为它在其他人身上工作得很好 我用的是Windows10巨蟒 什么问题?我遇到了和你类似的问题。您可能安装了cuda和cudnn,并且正在tensorflow gpu上运行代码 在我的例子中,我首先为cuda8.0安装了cuda8.0和cudnnv6.0,并

这是使用softmax的MNIST代码。 问题出现在

sess.run(train_step,feed_dict={x:batch_xs,y_u:batch_ys})

在for循环中

只是内核死机并重新启动时出现错误消息。 也许代码不是问题,因为它在其他人身上工作得很好

我用的是Windows10巨蟒


什么问题?

我遇到了和你类似的问题。您可能安装了
cuda
cudnn
,并且正在
tensorflow gpu
上运行代码

在我的例子中,我首先为cuda8.0安装了
cuda8.0
cudnnv6.0,并遇到了内核死机问题


然后我将cuda8.0的
cudnn
版本更改为
cudnnv5.1,并解决了这个问题。现在我的工作环境很好。

我遇到了与您类似的问题。您可能安装了
cuda
cudnn
,并且正在
tensorflow gpu
上运行代码

在我的例子中,我首先为cuda8.0安装了
cuda8.0
cudnnv6.0,并遇到了内核死机问题

然后我将cuda8.0的
cudnn
版本更改为
cudnnv5.1,并解决了这个问题。现在我可以很好地处理我的环境。

从您提到的“内核”正在消亡,听起来您正在使用Jupyter/IPython。如果直接使用
python.exe
运行脚本,您可能会获得更多信息,包括更好的错误消息。您能试着这样做并发布完整的错误消息吗?从您提到的“内核”正在消亡,听起来您正在使用Jupyter/IPython。如果直接使用
python.exe
运行脚本,您可能会获得更多信息,包括更好的错误消息。你能试着这样做并发布完整的错误消息吗?
   # Import data

    from tensorflow.examples.tutorials.mnist import input_data
    import tensorflow as tf

    mnist = input_data.read_data_sets('/tmp/tensorflow/mnist/input_data', one_hot=True)

    # Create the model

    x = tf.placeholder(tf.float32, [None, 784])
    W = tf.Variable(tf.zeros([784, 10]))
    b = tf.Variable(tf.zeros([10]))
    k = tf.matmul(x, W) + b
    y = tf.nn.softmax(k)
    i = 0

    # Define loss and optimizer

    y_ = tf.placeholder(tf.float32, [None, 10])
    learning_rate = 0.5
    cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(k, y_))
    train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

    print ("Training")
    sess = tf.Session()
    init = tf.global_variables_initializer() #.run()
    sess.run(init)
    for _ in range(1000):

        print(i)
        batch_xs, batch_ys = mnist.train.next_batch(100)
        print(i)
        sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
        print(i)
        i=i+1


    print ('b is ',sess.run(b))
    print('W is',sess.run(W))