Deep learning 访问Keras中以前RNN状态的softmax输出

Deep learning 访问Keras中以前RNN状态的softmax输出,deep-learning,keras,recurrent-neural-network,softmax,Deep Learning,Keras,Recurrent Neural Network,Softmax,我的RNN中的递归公式是h(t)=tanh(W.x(t)+U.h(t-1)+V.O(t-1)+b,其中O(t-1)是时间t-1时RNN的分类输出(Softmax输出)。如何在下一时间步访问此输出 我想我必须编写一个定制的RNN,但是我对Keras中recurrent.py中的所有递归函数感到有点困惑,我不确定应该修改哪些部分 你可能想看看keras主页上的经常性文档:或者阅读关于这个主题的链接文章。在我看来,您的问题就像一个简单的RNN层,带有softmax otuput。Keras接着做其余的

我的RNN中的递归公式是
h(t)=tanh(W.x(t)+U.h(t-1)+V.O(t-1)+b
,其中
O(t-1)
是时间
t-1
时RNN的分类输出(Softmax输出)。如何在下一时间步访问此输出


我想我必须编写一个定制的RNN,但是我对Keras中recurrent.py中的所有递归函数感到有点困惑,我不确定应该修改哪些部分

你可能想看看keras主页上的经常性文档:或者阅读关于这个主题的链接文章。在我看来,您的问题就像一个简单的RNN层,带有softmax otuput。Keras接着做其余的。@ThomasPinetz谢谢你的评论。嗯,我没有发现任何有用的东西。显然,我需要深入研究代码(高达5-6级)来进行修改,以达到我的目的:(,但是代码对我来说太混乱了。我希望有一种聪明的方法来做到这一点,因为我需要分别使用
O(t-1)
对其进行一些计算并用于计算
h(t)