为什么Tensorflow中的可训练_变量如此奇怪?

为什么Tensorflow中的可训练_变量如此奇怪?,tensorflow,neural-network,Tensorflow,Neural Network,我刚刚开始我的第一个TF项目。 我在MNIST上训练了一个4层的香草NN 然后我想展示学过的重量, 但奇怪的是,我得到了比我预期的多得多的产出 我曾经 sess.run(tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, "my_w1")) 在我之前定义的地方 tf.Variable(tf.random_normal([layer_sizes[i-1], layer_sizes[i]]), name = "my_w1"). 问题是,我期望一

我刚刚开始我的第一个TF项目。 我在MNIST上训练了一个4层的香草NN

然后我想展示学过的重量, 但奇怪的是,我得到了比我预期的多得多的产出

我曾经

sess.run(tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, "my_w1"))
在我之前定义的地方

tf.Variable(tf.random_normal([layer_sizes[i-1], layer_sizes[i]]), name = "my_w1").
问题是,我期望一个形状为(784500)的2d数组, 但我得到了这个形状的3d模型(15784500)


第一个维度是什么意思?

这是您的批量大小:每次迭代中使用的图像数。它来自于代码的这一部分:
epoch\u x,epoch\u y=mnist.train.next\u batch(batch\u size)
这是您的批大小:您在每次迭代中使用的图像数。它来自于代码的这一部分:
epoch\u x,epoch\u y=mnist.train.下一批(批量大小)

您在培训过程中是否给了它15个元素的批次?也许是怎么回事?不过我不确定,我不确定。我在这里发布了我的代码,你在培训过程中给它15个元素的批次吗?也许是怎么回事?不过我不确定,我不确定。我把代码贴在这里了好的,谢谢。但我还是有点困惑。为什么每批产品的重量不同?特别是因为它们似乎没有收敛,变化很大。你的体重应该改变,否则你根本就没有训练。权重不一定收敛,你的损失函数应该是好的,谢谢。但我还是有点困惑。为什么每批产品的重量不同?特别是因为它们似乎没有收敛,变化很大。你的体重应该改变,否则你根本就没有训练。权重不一定收敛,损失函数应该收敛