Tensorflow 在输入尺寸为x的情况下,KERA如何产生不同尺寸y的输出?
我不熟悉神经网络。我正在阅读大量的指南和教程,它们将从输入大小不同于输出大小的lstm层开始 例如,model.add(LSTM(100,输入_形=(20,1))-> 在执行之前->Tensorflow 在输入尺寸为x的情况下,KERA如何产生不同尺寸y的输出?,tensorflow,keras,deep-learning,lstm,recurrent-neural-network,Tensorflow,Keras,Deep Learning,Lstm,Recurrent Neural Network,我不熟悉神经网络。我正在阅读大量的指南和教程,它们将从输入大小不同于输出大小的lstm层开始 例如,model.add(LSTM(100,输入_形=(20,1))-> 在执行之前-> 添加(稠密(80,activation='relu'))等 据推测,这里lstm的输出层大小为100,而输入层只有20 对于稠密层,我可以想象它是如何工作的,因为有大量的图形描述了这一点,但是lstm如何生成与输入大小完全不同的输出层呢 同样重要的是,输入(比如说20)能有效地给出输出值的范围是什么?任何价值
- 添加(稠密(80,activation='relu'))等
- 同样重要的是,输入(比如说20)能有效地给出输出值的范围是什么?任何价值都有意义吗
给定输入的输出大小没有限制,所以我认为你的问题是基于一个误解。“如何”只是一个矩阵乘法,我明白了。非常感谢。我不知道我的问题是如何冒犯了任何人,但还好。