Algorithm 结构化数据分类的递归神经网络算法

Algorithm 结构化数据分类的递归神经网络算法,algorithm,machine-learning,artificial-intelligence,neural-network,classification,Algorithm,Machine Learning,Artificial Intelligence,Neural Network,Classification,TL;DR 我需要帮助理解结构化数据分类的特定算法的某些部分。为此,我也愿意接受不同算法的建议。 大家好 我目前正在研究一个涉及结构化数据分类的系统(我不想透露更多信息),为此我使用了一个简单的结构反向传播(BPTS)算法。我计划在以后修改代码,使用GPU来提高速度,但目前我正在寻找比BPT更好的算法 我最近偶然发现了这篇论文->[1],结果令我惊讶。我决定试一试,但我在理解算法的某些部分时遇到了一些困难,因为它的描述不是很清楚。我已经发电子邮件给一些作者要求澄清,但还没有收到他们的来信,所以,

TL;DR

我需要帮助理解结构化数据分类的特定算法的某些部分。为此,我也愿意接受不同算法的建议。

大家好

我目前正在研究一个涉及结构化数据分类的系统(我不想透露更多信息),为此我使用了一个简单的结构反向传播(BPTS)算法。我计划在以后修改代码,使用GPU来提高速度,但目前我正在寻找比BPT更好的算法

我最近偶然发现了这篇论文->[1],结果令我惊讶。我决定试一试,但我在理解算法的某些部分时遇到了一些困难,因为它的描述不是很清楚。我已经发电子邮件给一些作者要求澄清,但还没有收到他们的来信,所以,我非常感谢你们提供的任何见解

该算法的高级描述见第787页。在步骤1中,作者随机化网络权重,并“通过数据结构将每个节点的输入属性从前沿节点向前传播到根节点,从而获得根节点的输出”。我的理解是,步骤1从不重复,因为它是初始化步骤。我引用的第一部分指出,此处也会发生一次性激活。但是,训练数据集中的哪个项目用于网络的激活?这种激活真的应该只发生一次吗?例如,在我使用的BPTS算法中,对于训练数据集中的每个项目,一个新的神经网络——其拓扑结构取决于当前项目(数据结构)——被动态创建并激活。然后,误差反向传播,权值更新和保存,临时神经网络被破坏

另一件困扰我的事情是步骤3b。在那里,作者提到,他们使用方程(17)、(30)和(34)将参数{A,B,C,D}NT更新了一次。我的理解是NT表示训练数据集中的项目数。但是等式(17)、(30)和(34)已经包含了训练数据集中的所有项目,那么,求解它们(特别是)NT次有什么意义呢

还有一件事我没有弄清楚,他们的算法是如何准确地考虑到训练数据集中每个项目(可能)的不同结构的。我知道这在BPTS中是如何工作的(我在上面描述过),但我不清楚它如何与他们的算法一起工作

好了,现在就这些。如果有人知道这个算法可能会发生什么,我会非常有兴趣听到它(或者更确切地说,阅读它)。此外,如果您知道用于结构化数据分类的其他有前途的算法和/或网络体系结构(这里是否可以使用长-短期内存(LSTM)),请毫不犹豫地发布它们

提前感谢所有有用的输入

[1]