Machine learning 计算任意拓扑的神经网络
在阅读一些Machine learning 计算任意拓扑的神经网络,machine-learning,neural-network,Machine Learning,Neural Network,在阅读一些ppt演示文稿中有关神经进化的内容时,我遇到了一个短语: 网络输出按标准方式计算 我根据一些指南成功地实现了一个简单的前馈机制(使用权重的向量表示-,),并且我了解(或多或少)如何计算递归网络 我找不到的是如何计算具有任意拓扑结构的神经网络。是否有任何“标准方法”(算法) 我想象一种方法(假设前馈拓扑),虽然非常耗时,但将通过所有神经元循环,直到计算输出 我设想另一种方法是将任意拓扑组织成层(也假设为前馈拓扑),然后计算它 问题 计算任意拓扑网络输出的“标准方法”是什么?/如何计算任意
ppt
演示文稿中有关神经进化的内容时,我遇到了一个短语:
网络输出按标准方式计算
我根据一些指南成功地实现了一个简单的前馈机制(使用权重的向量表示-,),并且我了解(或多或少)如何计算递归网络
我找不到的是如何计算具有任意拓扑结构的神经网络。是否有任何“标准方法”(算法)
我想象一种方法(假设前馈拓扑),虽然非常耗时,但将通过所有神经元循环,直到计算输出
我设想另一种方法是将任意拓扑组织成层(也假设为前馈拓扑),然后计算它
问题
计算任意拓扑网络输出的“标准方法”是什么?/如何计算任意拓扑网络输出
假设
另外,我正在使用Python,下面是一篇简洁的文章。神经网络不能有真正的任意拓扑,有一些限制:
- 拓扑必须是(可还原为)a。您可能会问RNN是否与此要求相矛盾:它们不矛盾,因为每个RNN都可以。有,当循环可以在网络中模拟,但它的执行方式,网络可以始终表现为一个DAG和反向传播是有限的
- 图形必须具有专用的输入和输出节点,以便任何输入都不能依赖于输出。输入节点通常提供训练数据
- 还有其他限制,例如激活函数必须是可微的
总而言之:用于简单神经网络的相同机制适用于所有网络(如果您愿意,标准),但网络表示有时看起来可能不同。似乎是一个更适合CS StackExchange的问题。