Deep learning 合并图像的两个视图以增强DL模型的输出

Deep learning 合并图像的两个视图以增强DL模型的输出,deep-learning,keras,keras-layer,Deep Learning,Keras,Keras Layer,我已经试了几个星期这个问题,但没有用 我的问题是: 深度学习模型包含以下信息: 输入:图像序列 输出:图像中发生了什么,即从10个活动序列中对活动进行分类 我有两个摄像头从两个视图中记录相同的活动,如何组合这两个视图以提高准确性?我认为您应该使用DELF特征,提取两个相似图像的特征并组合它们 如何结合这两种观点完全取决于你对问题的理解。让我举两个不同的例子 案例一:当您查看培训数据时,您可以很容易地判断哪些摄像头更适合某些数据。e、 g.一个摄像头可能捕获所有有用的东西,而另一个摄像头可能由于可

我已经试了几个星期这个问题,但没有用

我的问题是:

深度学习模型包含以下信息:

输入:图像序列

输出:图像中发生了什么,即从10个活动序列中对活动进行分类


我有两个摄像头从两个视图中记录相同的活动,如何组合这两个视图以提高准确性?

我认为您应该使用DELF特征,提取两个相似图像的特征并组合它们

如何结合这两种观点完全取决于你对问题的理解。让我举两个不同的例子

案例一:当您查看培训数据时,您可以很容易地判断哪些摄像头更适合某些数据。e、 g.一个摄像头可能捕获所有有用的东西,而另一个摄像头可能由于可能的遮挡而无法捕获(注意:我并不是说一个摄像头总是比另一个好)。在这种情况下,您可以使用稍后的融合技术仅融合表示来自两个摄影机的序列的两个结果特征

案例二:你很难判断哪种相机更好。这基本上表明,在考虑这两种相机之后,您可能看不到性能提升,但可能有一些小的改进。
最后,当你说两个摄像机时,你是否可以做一些类似双目立体视觉的事情?在这种情况下,您可能会获得额外的深度信息,该信息不包含在任何单个摄像头中,可能有助于识别任务。

嗯,实际上,我对组合部件本身有问题吗?如何实际组合这些模型?将每个图像的功能保存为csv,并使用简单的python脚本进行组合。假设image1a和image1b是两个示例,在.csv中转换它们的特性,使用python代码进行组合。我不太确定深度部分(如果它确实有用的话)。然而,许多天以来困扰我的是如何实际组合不同的视图,我是否需要做一些事情,比如将另一个视图附加到第一个视图,并将两个图像输入到神经网络,而不是一个,或者使用ResNet、DenseNet架构之类的东西?