Deep learning LSTM和GRU gates如何决定在内存中保留哪个单词

Deep learning LSTM和GRU gates如何决定在内存中保留哪个单词,deep-learning,lstm,recurrent-neural-network,gated-recurrent-unit,natural-language-processing,Deep Learning,Lstm,Recurrent Neural Network,Gated Recurrent Unit,Natural Language Processing,GRU中的更新门决定在单元格中保留哪个字,或者明确单元格的状态。 gru中的更新门如何决定何时接近1,何时接近0? 基本上,它是如何决定保留一个词和不保留一个词的?谢谢不清楚你在这个问题上做了什么背景调查。也许谷歌搜索gru教程会发现一些有用的博客。这是 请记住,尽管单元状态是使用权重更新的,这些权重的优化方式与使用反向传播优化任何其他神经网络权重的方式相同。是一个很好的博客,可以帮助解释RNN(GRU是一个具体的例子)是如何建立的,以及如何通过时间反向传播来更新权重。然后,GRU的权重决定了单

GRU中的更新门决定在单元格中保留哪个字,或者明确单元格的状态。 gru中的更新门如何决定何时接近1,何时接近0?
基本上,它是如何决定保留一个词和不保留一个词的?谢谢

不清楚你在这个问题上做了什么背景调查。也许谷歌搜索gru教程会发现一些有用的博客。这是


请记住,尽管单元状态是使用权重更新的,这些权重的优化方式与使用反向传播优化任何其他神经网络权重的方式相同。是一个很好的博客,可以帮助解释RNN(GRU是一个具体的例子)是如何建立的,以及如何通过时间反向传播来更新权重。然后,GRU的权重决定了单元格状态的更新方式。

我添加了一个答案,但不清楚您目前对GRU的理解和了解以及您的困惑究竟是什么。如果我的回答不能满足你的要求,请告诉我。