Deep learning 如何计算二进制分类LSTM中每个时间步的误差?

Deep learning 如何计算二进制分类LSTM中每个时间步的误差?,deep-learning,lstm,recurrent-neural-network,backpropagation,Deep Learning,Lstm,Recurrent Neural Network,Backpropagation,我试图理解LSTM中的错误是如何在二进制分类中反向传播的。在LSTM的其他应用程序中,通常每个时间步都有一个“正确”的输出,我们可以使用它来计算错误。但是对于二进制分类来说,如果“正确”的输出在最后出现,那么如何在每个时间步计算错误呢

我试图理解LSTM中的错误是如何在二进制分类中反向传播的。在LSTM的其他应用程序中,通常每个时间步都有一个“正确”的输出,我们可以使用它来计算错误。但是对于二进制分类来说,如果“正确”的输出在最后出现,那么如何在每个时间步计算错误呢