Neural network Tensorflow-数据邻接关系重要吗?-MNIST示例

Neural network Tensorflow-数据邻接关系重要吗?-MNIST示例,neural-network,tensorflow,mnist,Neural Network,Tensorflow,Mnist,我看了一下,注意到当图像的数组被展平为728数组时,如果该数组是随机的,那又有什么关系呢?我的意思是,NN是否考虑了数据的邻接性,或者是否有一个输入节点放入输入编号(因此为728个节点) 我想问的是,如果我像在示例中一样使用平坦的图像进行训练,我会得到与随机分配728数据数组相同的网络吗?取决于您正在查看的mnist示例。卷积.py在整个图像上运行5x5空间卷积窗口,该窗口考虑了空间相关性 MNIST初学者示例使用简单的权重矩阵: W = tf.Variable(tf.zeros([784,10

我看了一下,注意到当图像的数组被展平为728数组时,如果该数组是随机的,那又有什么关系呢?我的意思是,NN是否考虑了数据的邻接性,或者是否有一个输入节点放入输入编号(因此为728个节点)


我想问的是,如果我像在示例中一样使用平坦的图像进行训练,我会得到与随机分配728数据数组相同的网络吗?

取决于您正在查看的mnist示例。卷积.py在整个图像上运行5x5空间卷积窗口,该窗口考虑了空间相关性

MNIST初学者示例使用简单的权重矩阵:

W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
没有。只要以相同的方式排列所有输入,就可以排列点中条目的顺序而不改变任何内容


(卷积方法在大多数图像识别应用中获胜的原因之一是空间局部性非常有用。

您正在阅读非常基础的教程,其全部目的是让您熟悉TF和一些重要的ML概念,这些概念将在许多较难的模型中使用。他们并没有试图做任何困难的事情(事实上,准确度并不比开箱即用的SVM要高)。如果你仔细阅读教程,他们会说:

无论我们如何展平阵列,只要我们 图像之间的一致性

展平数据会丢弃有关数据二维结构的信息 形象。那不是很糟糕吗?好吧,最好的计算机视觉方法 利用这个结构,我们将在后面的教程中介绍。但问题很简单 我们将在这里使用的方法,softmax回归,不会

关于网络的问题:网络的拓扑结构相同,权重/偏差不同


还有一个示例考虑了数据的邻接性

是的,它考虑了数据的邻接性,这很有帮助。有些人对MNIST感到厌烦,并试图看看如果不能使用数据布局,您能做得多好。为此,他们将图像展平成随机顺序的一维阵列(但每个图像的随机顺序相同),这样网络就不能利用任何预先确定的结构。搜索“置换不变MNIST”和“置换不变SVHN”