Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/webpack/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Deep learning 什么样的动态人工数据增强可以应用于语义分割?_Deep Learning_Caffe_Pycaffe_Matcaffe - Fatal编程技术网

Deep learning 什么样的动态人工数据增强可以应用于语义分割?

Deep learning 什么样的动态人工数据增强可以应用于语义分割?,deep-learning,caffe,pycaffe,matcaffe,Deep Learning,Caffe,Pycaffe,Matcaffe,我分别有5223和577张用于训练和验证集的图像。我将CNN应用于图像分割,并希望进行人工动态数据增强。 我已经安装了Caffe。我想知道这个版本的Caffe是否支持数据扩充? 如果是,你能为我分享一些资源吗? 另一个问题是,无论何时我们进行人工数据扩充,我们是否应该根据扩充的规模改变时代?例如,如果我只应用镜像,我应该通过复制2来更改历元的大小吗 我认为旋转图像和改变像素强度(将图像像素值除以小于255的数字)可以做到,我在segnet上也做了同样的事情,但我没有提高质量,用你拥有的图像进行像

我分别有5223和577张用于训练和验证集的图像。我将CNN应用于图像分割,并希望进行人工动态数据增强。 我已经安装了
Caffe
。我想知道这个版本的Caffe是否支持数据扩充? 如果是,你能为我分享一些资源吗?
另一个问题是,无论何时我们进行人工数据扩充,我们是否应该根据扩充的规模改变时代?例如,如果我只应用镜像,我应该通过复制2来更改历元的大小吗

我认为旋转图像和改变像素强度(将图像像素值除以小于255的数字)可以做到,我在segnet上也做了同样的事情,但我没有提高质量,用你拥有的图像进行像素级分割就足够了,因为特征是在像素级而不是整个图像上学习的,因此,如果这些图像都是不同的,那么您就有足够的特性,但是您可能会考虑在模型精度上掉下来。stagnates@Eliethesaiyan非常感谢您的指导。我认为这还不够训练。我认为一般来说,像素级分割不需要太多图像,如果你看Camvid,他们只使用了400并获得了更好的结果…我认为最重要的是对象识别,对象可以有不同的形式,因为对象必须作为一个整体进行识别,而在分割中…每个像素都与相应的像素标签匹配…在我看来,模式没有那么重要…@Elitessaiyan非常感谢你再次强调。我认为旋转图像和改变像素强度(将图像像素值除以小于255的数字)可以做到,我在segnet上也做了同样的事情,但我没有提高质量,用你拥有的图像进行像素级分割就够了,我想因为特征是在像素级而不是整个图像上学习的,因此,如果这些图像都是不同的,那么您就有足够的特性,但是您可能会考虑在模型精度上掉下来。stagnates@Eliethesaiyan非常感谢您的指导。我认为这还不够训练。我认为一般来说,像素级分割不需要太多图像,如果你看Camvid,他们只使用了400并获得了更好的结果…我认为最重要的是对象识别,对象可以有不同的形式,因为对象必须作为一个整体进行识别,而在分割中…每个像素都与相应的像素标签匹配…在我看来,模式没有那么重要…@Elitessaiyan非常感谢你再一次。