Python 张量流。内核在训练时死亡。窗蟒 解释一下。
这是使用softmax的MNIST代码。 问题出现在 sess.run(train_step,feed_dict={x:batch_xs,y_u:batch_ys}) 在for循环中 只是内核死机并重新启动时出现错误消息。 也许代码不是问题,因为它在其他人身上工作得很好 我用的是Windows10巨蟒Python 张量流。内核在训练时死亡。窗蟒 解释一下。,python,debugging,tensorflow,anaconda,Python,Debugging,Tensorflow,Anaconda,这是使用softmax的MNIST代码。 问题出现在 sess.run(train_step,feed_dict={x:batch_xs,y_u:batch_ys}) 在for循环中 只是内核死机并重新启动时出现错误消息。 也许代码不是问题,因为它在其他人身上工作得很好 我用的是Windows10巨蟒 什么问题?我遇到了和你类似的问题。您可能安装了cuda和cudnn,并且正在tensorflow gpu上运行代码 在我的例子中,我首先为cuda8.0安装了cuda8.0和cudnnv6.0,并
什么问题?我遇到了和你类似的问题。您可能安装了
cuda
和cudnn
,并且正在tensorflow gpu
上运行代码
在我的例子中,我首先为cuda8.0安装了cuda8.0
和cudnnv6.0,并遇到了内核死机问题
然后我将cuda8.0的cudnn
版本更改为cudnnv5.1,并解决了这个问题。现在我的工作环境很好。我遇到了与您类似的问题。您可能安装了cuda
和cudnn
,并且正在tensorflow gpu
上运行代码
在我的例子中,我首先为cuda8.0安装了cuda8.0
和cudnnv6.0,并遇到了内核死机问题
然后我将cuda8.0的cudnn
版本更改为cudnnv5.1,并解决了这个问题。现在我可以很好地处理我的环境。从您提到的“内核”正在消亡,听起来您正在使用Jupyter/IPython。如果直接使用python.exe
运行脚本,您可能会获得更多信息,包括更好的错误消息。您能试着这样做并发布完整的错误消息吗?从您提到的“内核”正在消亡,听起来您正在使用Jupyter/IPython。如果直接使用python.exe
运行脚本,您可能会获得更多信息,包括更好的错误消息。你能试着这样做并发布完整的错误消息吗?
# Import data
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets('/tmp/tensorflow/mnist/input_data', one_hot=True)
# Create the model
x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
k = tf.matmul(x, W) + b
y = tf.nn.softmax(k)
i = 0
# Define loss and optimizer
y_ = tf.placeholder(tf.float32, [None, 10])
learning_rate = 0.5
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(k, y_))
train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
print ("Training")
sess = tf.Session()
init = tf.global_variables_initializer() #.run()
sess.run(init)
for _ in range(1000):
print(i)
batch_xs, batch_ys = mnist.train.next_batch(100)
print(i)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
print(i)
i=i+1
print ('b is ',sess.run(b))
print('W is',sess.run(W))