Neural network 带滑动窗口的MLP=TDNN

Neural network 带滑动窗口的MLP=TDNN,neural-network,Neural Network,我需要确认一下这份声明 其中两个相等吗? 1.MLP,带滑动时间窗口 2.时滞神经网络(TDNN) 有人能证实所给的陈述吗?可能是参考。谢谢以下是TDNN的说明,摘自。“在我们的TDNN中,如图1所示,通过引入延迟D1到Dn来修改基本单元。现在,该单元的J输入将乘以多个权重,每个延迟一个”。这本质上是带有滑动窗口的MLP(另请参见图2)。“等效”过于笼统,但您可以粗略地说,就架构而言(至少就其原始方案而言,有更多的修改,如MS-TDNN,它与MLP更为不同)。正确的说法是TDNN是一种扩展的ML

我需要确认一下这份声明

其中两个相等吗? 1.MLP,带滑动时间窗口 2.时滞神经网络(TDNN)


有人能证实所给的陈述吗?可能是参考。谢谢

以下是TDNN的说明,摘自。“在我们的TDNN中,如图1所示,通过引入延迟D1到Dn来修改基本单元。现在,该单元的J输入将乘以多个权重,每个延迟一个”。这本质上是带有滑动窗口的MLP(另请参见图2)。

“等效”过于笼统,但您可以粗略地说,就架构而言(至少就其原始方案而言,有更多的修改,如MS-TDNN,它与MLP更为不同)。正确的说法是TDNN是一种扩展的MLP体系结构

两者都使用反向传播,都是前馈网络
主要思想可以这样表述:

延迟位于隐藏层或输出层的神经元的输入 类似于将层放大,并有助于填充图案 缩放和平移,接近集成输入信号 随着时间的推移

它与MLP有什么不同:

然而,为了处理延迟或缩放的输入信号 TDNN的初始定义要求 连接到一个输入的神经元是相同的

然而,在后来的研究中,这一要求被推翻了,就像过去和现在的节点具有不同的权重(对于许多应用来说,这显然是合理的)使得它相当于MLP

这就是架构比较的全部内容。让我们谈谈训练。结果将不同:如果您将相同的顺序数据输入到MLP中,其中仅从滑动窗口逐个获取当前数据,并且如果您将当前和过去的数据一起输入到TDNN中,则整个训练将不同。最大的区别在于上下文。使用MLP,您将在过去的激活中获得过去输入的上下文。有了TDNN,您可以在当前激活中将它们直接连接到当前输入。同样,MLP没有时间上下文功能(这就是为什么递归神经网络在序列数据中更受欢迎的原因),TDNN是解决这一问题的一种尝试。在我看来,TDNN基本上是试图将MLP(基本Backprop)和RNN(context/sequences)这两个世界合并在一起

TL;DR:如果你去掉TDNNs的目的,你可以说你的陈述在架构层面上是正确的。但是,如果您在实际操作中同时比较这两种体系结构,您将得到不同的观察结果