什么';LSTM输出门的用途是什么?
根据LSTM结构,通过输出门将存储单元输出到下一时间步的下一层或隐藏层。然而,它直接暴露于下一时间步的输入、忘记和输出门。这种选择性曝光的好处是什么?忘记门:这是一个由0和1组成的矩阵,用于过滤 输出,您不需要或不需要继续 更新门:这也是一个由0和1组成的矩阵,它告诉你哪些输出在忘记后要更新,因为你不能同时记住和忘记一件事,所以我们用新的输出替换输出 例:我的猫很漂亮。她只吃鱼。其他的猫对她很粗鲁 在这里,起初我们只讨论一只猫,但我们希望我们的模型在遇到单词“cats”时,模型应该忘记前面的单数“cat”,得到更新并输出“are”而不是“is”。但是为了预测“是”,我们需要另一个过滤器来帮助我们找出预测的可能候选对象,然后进入输出门什么';LSTM输出门的用途是什么?,lstm,Lstm,根据LSTM结构,通过输出门将存储单元输出到下一时间步的下一层或隐藏层。然而,它直接暴露于下一时间步的输入、忘记和输出门。这种选择性曝光的好处是什么?忘记门:这是一个由0和1组成的矩阵,用于过滤 输出,您不需要或不需要继续 更新门:这也是一个由0和1组成的矩阵,它告诉你哪些输出在忘记后要更新,因为你不能同时记住和忘记一件事,所以我们用新的输出替换输出 例:我的猫很漂亮。她只吃鱼。其他的猫对她很粗鲁 在这里,起初我们只讨论一只猫,但我们希望我们的模型在遇到单词“cats”时,模型应该忘记前面的单数
输出门:它也是一个由0和1组成的矩阵,它有助于决定我们将使用哪些输出,应用后,我们将结果矩阵提供给softmax以计算概率,决定谁是预测的获胜者候选人。忘记门:这是一个由0和1组成的矩阵,用于过滤预测结果 输出,您不需要或不需要继续 更新门:这也是一个由0和1组成的矩阵,它告诉你哪些输出在忘记后要更新,因为你不能同时记住和忘记一件事,所以我们用新的输出替换输出 例:我的猫很漂亮。她只吃鱼。其他的猫对她很粗鲁 在这里,起初我们只讨论一只猫,但我们希望我们的模型在遇到单词“cats”时,模型应该忘记前面的单数“cat”,得到更新并输出“are”而不是“is”。但是为了预测“是”,我们需要另一个过滤器来帮助我们找出预测的可能候选对象,然后进入输出门
输出门:它也是一个由0和1组成的矩阵,有助于决定我们将使用哪些输出,应用此矩阵后,我们将结果矩阵提供给softmax以计算概率,决定谁是预测的获胜者候选人。您可以阅读此获取更多信息:您可以阅读此获取更多信息: