Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/362.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/swift/20.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何解决大量的MAE&;MSE?_Python_Tensorflow_Keras - Fatal编程技术网

Python 如何解决大量的MAE&;MSE?

Python 如何解决大量的MAE&;MSE?,python,tensorflow,keras,Python,Tensorflow,Keras,我已经设计了一个模型,在1002个时间步长中包含11个特性的1163个样本。因为每个时间步长对最终输出的影响很重要,所以我使用了LSTM。我的问题是,即使有不同数量的层、神经元和年代,我的损失也明显很高,这意味着“MSE”和“MAE”。从某种意义上说,我可以说这是不合适的。此外,我已经更改了优化器参数,但问题仍然存在。我使用的模型如下: from keras.models import Sequential conv1d = Conv1D(input_shape=(None, 16), ker

我已经设计了一个模型,在1002个时间步长中包含11个特性的1163个样本。因为每个时间步长对最终输出的影响很重要,所以我使用了LSTM。我的问题是,即使有不同数量的层、神经元和年代,我的损失也明显很高,这意味着“MSE”和“MAE”。从某种意义上说,我可以说这是不合适的。此外,我已经更改了优化器参数,但问题仍然存在。我使用的模型如下:

from keras.models import Sequential

conv1d = Conv1D(input_shape=(None, 16), kernel_size=2, filters=2)    

model = Sequential()
#model.add(layers.Conv1D(filters=32,kernel_size=3,strides = 1,activation='tanh'))
#model.add(conv1d)    


model.add(layers.LSTM(128,activation='relu' ,input_shape = (1163,10),return_sequences=True))
model.add(layers.Dense(128))
model.add(Dropout(0.2))


model.add(TimeDistributed(Dense(1)))
optimizer= tf.keras.optimizers.Adam(learning_rate=0.0001,epsilon=1e-07)
model.compile(loss='mse',optimizer=optimizer,metrics=['mae','mse'])

通过添加卷积层,是否可以减少它们?如果是这样的话,如何为具有一个目标(标签)和10个特征的回归模型添加卷积层?

我将使用SparseCategoric交叉熵损失代替。或者将输出标准化,你的意思是,不使用MSE或MAE,而是使用另一个损耗函数?但问题是,任务是回归。也可以吗?很抱歉,您的输出形状通常是1回归任务,在最后一层使用S形激活和二元交叉熵丢失。但对我来说,关于你的模型的第一件事是,我期望并输入(1002个时间步,11个特征)的形状。然后,人们会用小批量的样本(比如32个样本)来训练模型。@PedroMarques我认为当我有一个1163个样本的列表时,在每个时间步中,所有的样本都应该在一个历元中读取。另一件事,你能给我举个例子来说明如何使用小批量进行培训吗?