Deep learning 了解网格lstm的输入。

Deep learning 了解网格lstm的输入。,deep-learning,lstm,Deep Learning,Lstm,我正在考虑在图像上应用网格lstm。根据其原始文件,据说: 请注意,块不会接收单独的数据表示形式。数据点通过一对输入隐藏向量和存储向量沿网格的一侧投影到网络中 据我所知,这意味着与lstm的其他变体不同,如多维lstm,其输入是*[所有先前隐藏向量,I*x]的串联,网格lstm不接收数据点(如RGB值)作为输入。相反,这些RGB特征直接用作栅格lstm一侧的隐藏/内存状态。对吗 根据我的理解(根据图2),输入数据直接输入到隐藏向量和内存向量中。此外,输出来自传出内存和隐藏向量。这表明,如有必要,

我正在考虑在图像上应用网格lstm。根据其原始文件,据说:

请注意,块不会接收单独的数据表示形式。数据点通过一对输入隐藏向量和存储向量沿网格的一侧投影到网络中

据我所知,这意味着与lstm的其他变体不同,如多维lstm,其输入是*[所有先前隐藏向量,I*x]的串联,网格lstm不接收数据点(如RGB值)作为输入。相反,这些RGB特征直接用作栅格lstm一侧的隐藏/内存状态。对吗

根据我的理解(根据图2),输入数据直接输入到隐藏向量和内存向量中。此外,输出来自传出内存和隐藏向量。这表明,如有必要,原始输入可以通过整个深度维度(解决消失梯度问题)

但是,这并不影响输入投影(I*x),我将其解释为预处理方法(例如翻译示例4.4中的单词嵌入)。我相信,选择I*x符号是为了显示模型的简单性。我们仍然在技术上连接所有传入的隐藏向量,在stacked/MD-LSTM中也会发生同样的情况。 RGB点仍然用作矢量,请参见第2.1节:

(…)包含隐藏向量h的网络状态∈ R^d和一个记忆向量m∈ 研发部

d、 对于RGB图像,将为3。这是稍后使用的LSTM的定义,因此我们可以假设网格LSTM也适用同样的情况