Tensorflow 什么&x2019;与回归相比,使用LSTM进行时间序列预测的优势是什么?

Tensorflow 什么&x2019;与回归相比,使用LSTM进行时间序列预测的优势是什么?,tensorflow,neural-network,recurrent-neural-network,Tensorflow,Neural Network,Recurrent Neural Network,在神经网络中,一般来说,对于时间序列,哪种模型应该在两者之间产生更好、更准确的输出?正如您正确提到的,我们可以对时间序列数据使用线性回归,只要: 将滞后项包含为回归项不会产生共线性问题 回归方程和解释变量都是平稳的 您的错误彼此不相关 其他线性回归假设适用 无自相关是线性回归中最重要的一个假设。如果存在自相关,后果如下: 偏差:你的“最佳拟合线”可能会偏离,因为滞后误差的影响会使它偏离“真实线” 不一致性:鉴于上述情况,您的样本估计不太可能收敛到总体参数 低效:虽然理论上是可能的,但如果残

在神经网络中,一般来说,对于时间序列,哪种模型应该在两者之间产生更好、更准确的输出?

正如您正确提到的,我们可以对时间序列数据使用线性回归,只要:

  • 将滞后项包含为回归项不会产生共线性问题
  • 回归方程和解释变量都是平稳的
  • 您的错误彼此不相关
  • 其他线性回归假设适用
无自相关是线性回归中最重要的一个假设。如果存在自相关,后果如下:

  • 偏差:你的“最佳拟合线”可能会偏离,因为滞后误差的影响会使它偏离“真实线”
  • 不一致性:鉴于上述情况,您的样本估计不太可能收敛到总体参数
  • 低效:虽然理论上是可能的,但如果残差是自相关的,则它们不太可能是同调的。因此,您的置信区间和假设检验将不可靠
而长短时记忆神经网络是一种递归神经网络(RNN)。RNN使用以前的时间事件通知以后的事件。例如,要对电影中发生的事件进行分类,模型需要使用有关先前事件的信息。如果问题只需要最新信息来执行当前任务,RNN工作正常。如果问题需要长期依赖关系,RNN将难以对其建模。LSTM旨在学习长期依赖关系。它能长时间记住这些信息


关注第一个序列。该模型采用索引0处时间条的特征,并尝试预测索引1处时间条的目标。然后,它获取索引1处时间条的特征,并尝试预测索引2处时间条的目标,等等。第二个序列的特征从第一个序列的特征移动1个时间条,第三个序列的特征从第二个序列移动1个时间条,等等。使用此程序,我们得到了许多被单个时间条移动的较短序列。

正如您正确提到的,我们可以使用时间序列数据的线性回归,只要:

  • 将滞后项包含为回归项不会产生共线性问题
  • 回归方程和解释变量都是平稳的
  • 您的错误彼此不相关
  • 其他线性回归假设适用
无自相关是线性回归中最重要的一个假设。如果存在自相关,后果如下:

  • 偏差:你的“最佳拟合线”可能会偏离,因为滞后误差的影响会使它偏离“真实线”
  • 不一致性:鉴于上述情况,您的样本估计不太可能收敛到总体参数
  • 低效:虽然理论上是可能的,但如果残差是自相关的,则它们不太可能是同调的。因此,您的置信区间和假设检验将不可靠
而长短时记忆神经网络是一种递归神经网络(RNN)。RNN使用以前的时间事件通知以后的事件。例如,要对电影中发生的事件进行分类,模型需要使用有关先前事件的信息。如果问题只需要最新信息来执行当前任务,RNN工作正常。如果问题需要长期依赖关系,RNN将难以对其建模。LSTM旨在学习长期依赖关系。它能长时间记住这些信息


关注第一个序列。该模型采用索引0处时间条的特征,并尝试预测索引1处时间条的目标。然后,它获取索引1处时间条的特征,并尝试预测索引2处时间条的目标,等等。第二个序列的特征从第一个序列的特征移动1个时间条,第三个序列的特征从第二个序列移动1个时间条,等等。使用此程序,我们得到了许多短序列,它们被一个时间条移动。

Hi。你能检查一下答案并确认这是否是你想要的吗?谢谢你好你能检查一下答案并确认这是否是你想要的吗?谢谢@杰伊-如果答案回答了你的问题,你能接受并投票吗。谢谢。@Jay-如果答案回答了你的问题,你能接受并投票吗。非常感谢。