Python 自动编码器,以减少输入数据的大小

Python 自动编码器,以减少输入数据的大小,python,tensorflow,neural-network,keras,autoencoder,Python,Tensorflow,Neural Network,Keras,Autoencoder,目前,我想使用自动编码器来减少输入数据的大小,以便将减少的数据用于另一个神经网络。我的任务是拍摄视频,然后将视频图像提供给自动编码器。当我只使用几个图像作为输入时,自动编码器工作得很好,但当我想要一系列图像时,它就不行了 想象一下从一个移动的球上拍摄视频。例如,我们有200幅图像。如果我对200幅图像使用autoencoder,误差很大,但如果我只对5幅图像使用autoencoder,重建误差很小,可以接受。似乎autoencoder无法学习球循环的顺序或时间运动。我还尝试表示堆叠的自动编码器,

目前,我想使用自动编码器来减少输入数据的大小,以便将减少的数据用于另一个神经网络。我的任务是拍摄视频,然后将视频图像提供给自动编码器。当我只使用几个图像作为输入时,自动编码器工作得很好,但当我想要一系列图像时,它就不行了

想象一下从一个移动的球上拍摄视频。例如,我们有200幅图像。如果我对200幅图像使用autoencoder,误差很大,但如果我只对5幅图像使用autoencoder,重建误差很小,可以接受。似乎autoencoder无法学习球循环的顺序或时间运动。我还尝试表示堆叠的自动编码器,但结果并不好


是否有人知道问题是什么,或者是否可以使用自动编码器执行此任务

自动编码器/变分自动编码器不了解序列,而是学习将输入数据“映射”到维度较少的潜在空间。例如,如果图像是
64x64x3
,则可以将其映射到
32 dim
tensor/数组

为了学习图像序列,您需要将自动编码器部分的输出连接到RNN(LSTM/GRU),该RNN可以了解编码帧的序列(潜在空间中的连续帧)。之后,RNN的输出可以连接到自动编码器的解码器部分,以便您可以看到重建的帧


你问题中的
错误
,是总和错误还是平均错误?当图像数量增加时,求和误差自然会增加。