Video 对于同一数据集,如何通过合并两个具有不同输入的相同深度模型来进行预测?
我正在研究动态手势识别。我有两种类型的输入:裁剪的手图像(比如,输入1)和一组运动图像(输入2) 输入1:仅手的非常小的图像,每个视频序列的帧数=20 输入2:正常大小(1080*1920*3)的运动图像,每个视频序列的帧数=4 使用的模型:LSTM 当我在单个输入(Let,裁剪的手图像)上训练模型时,然后在测试集中,我只给出裁剪的手图像。类似地,在运动图像的情况下。 问题:Video 对于同一数据集,如何通过合并两个具有不同输入的相同深度模型来进行预测?,video,keras,merge,deep-learning,gesture-recognition,Video,Keras,Merge,Deep Learning,Gesture Recognition,我正在研究动态手势识别。我有两种类型的输入:裁剪的手图像(比如,输入1)和一组运动图像(输入2) 输入1:仅手的非常小的图像,每个视频序列的帧数=20 输入2:正常大小(1080*1920*3)的运动图像,每个视频序列的帧数=4 使用的模型:LSTM 当我在单个输入(Let,裁剪的手图像)上训练模型时,然后在测试集中,我只给出裁剪的手图像。类似地,在运动图像的情况下。 问题: 当我合并这两个模型时,如何生成测试集?我是否应该保留每个手势样本的裁剪手图像和运动图像 如果1的答案是肯定的,那么当我可
# Model.
model_1 = Sequential()
model_1.add(LSTM(2048, return_sequences=False,
input_shape=self.input_shape,
dropout=0.5))
model_2 = Sequential()
model_2.add(LSTM(2048, return_sequences=False,
input_shape=self.input_shape,
dropout=0.5))
mergedOutput = Concatenate()([model_1.output, model_2.output])
model = Dense(512, activation='relu')(mergedOutput)
model = Dropout(0.5)(model)
model = Dense(self.nb_classes, activation='softmax')(model)
optimizer = Adam(lr=1e-5, decay=1e-6)
self.model.compile(loss='categorical_crossentropy', optimizer=optimizer,
metrics=metrics)
我第一次做视频和合并的概念,所以请容忍我。此外,我已经阅读了许多关于quora和StackOverflow的答案,但我仍然不知道如何去消除这个疑问。
提前谢谢