Tensorflow 分离因变量和自变量的时间序列预测
假设我有这样的数据:Tensorflow 分离因变量和自变量的时间序列预测,tensorflow,keras,Tensorflow,Keras,假设我有这样的数据: date pollution dew temp press wnd_dir wnd_spd snow rain 2010-01-02 00:00:00 129.0 -16 -4.0 1020.0 SE 1.79 0 0 2010-01-02 01:00:00 148.0 -15 -4.0 1020.0 SE 2.68 0
date pollution dew temp press wnd_dir wnd_spd snow rain
2010-01-02 00:00:00 129.0 -16 -4.0 1020.0 SE 1.79 0 0
2010-01-02 01:00:00 148.0 -15 -4.0 1020.0 SE 2.68 0 0
2010-01-02 02:00:00 159.0 -11 -5.0 1021.0 SE 3.57 0 0
2010-01-02 03:00:00 181.0 -7 -5.0 1022.0 SE 5.36 1 0
2010-01-02 04:00:00 138.0 -7 -5.0 1022.0 SE 6.25 2 0
我想将神经网络应用于污染的时间序列预测。
应注意的是,其他变量:露水、温度、压力、wnd\U dir、wnd\U spd、雪、雨
是污染的自变量。
如果我在LSTM中实现LSTM,那么LSTM将所有变量作为独立变量进行学习;该模型可以对所有变量进行预测
但是没有必要对所有自变量进行预测,唯一的要求是污染
,一个因变量
是否有任何方法可以实现LSTM或其他更好的架构,通过将其他自变量视为独立变量来学习和预测因变量,并对污染进行更好的预测?该示例似乎已经在预测污染了。如果看到重新格式化的
,
:
var1(t-1) var2(t-1) var3(t-1) var4(t-1) var5(t-1) var6(t-1) \
1 0.129779 0.352941 0.245902 0.527273 0.666667 0.002290
2 0.148893 0.367647 0.245902 0.527273 0.666667 0.003811
3 0.159960 0.426471 0.229508 0.545454 0.666667 0.005332
4 0.182093 0.485294 0.229508 0.563637 0.666667 0.008391
5 0.138833 0.485294 0.229508 0.563637 0.666667 0.009912
var7(t-1) var8(t-1) var1(t)
1 0.000000 0.0 0.148893
2 0.000000 0.0 0.159960
3 0.000000 0.0 0.182093
4 0.037037 0.0 0.138833
5 0.074074 0.0 0.109658
var1
似乎是污染
。如您所见,所有变量都有上一步的值(t-1)
,污染的当前步骤的值t
(var1(t)
)
最后一个变量是示例中输入的y
,您可以在以下行中看到:
# split into input and outputs
train_X, train_y = train[:, :-1], train[:, -1]
test_X, test_y = test[:, :-1], test[:, -1]
因此,网络应该已经只预测了污染
难道不仅仅是污染
的例子吗?我不这么认为,你为什么这么认为?让我回答,看看你是否同意;)还有其他变量:var2(t-1)、var3(t-1)、var4(t-1)、var5(t-1)var6(t-1)。我不明白为什么它没有预测其他变量,它又在依赖变量和自变量之间有什么关系?这些变量被用作<代码> x >代码>,所以网络从这些变量的先前值中学习,以便预测<代码>污染< /代码>的未来值。