Java 使用spark和hipi(hadoop图像处理接口)进行图像处理
我使用Spark与Hipi和bytedeco(opencv3.2.0)一起处理图像 在spark工作中,我尝试将数据加载到PairRDD中,然后处理这些图像(计算特征) 但是,当我尝试将hipi图像束(.hib)加载为FloatImages时,我得到了一个错误 代码:Java 使用spark和hipi(hadoop图像处理接口)进行图像处理,java,apache-spark,image-processing,hipi,Java,Apache Spark,Image Processing,Hipi,我使用Spark与Hipi和bytedeco(opencv3.2.0)一起处理图像 在spark工作中,我尝试将数据加载到PairRDD中,然后处理这些图像(计算特征) 但是,当我尝试将hipi图像束(.hib)加载为FloatImages时,我得到了一个错误 代码: JavaPairRDD<HipiImageHeader,FloatImage> floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampl
JavaPairRDD<HipiImageHeader,FloatImage> floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampleimages.hib",HibInputFormat.class,HipiImageHeader.class,FloatImage.class, new Configuration());
javapairdd floatimages=jsc.newAPIHadoopFile(“hdfs://cluster-1-m/user/ibi/sampleimages.hib,HibInputFormat.class,HipiImageHeader.class,FloatImage.class,新配置();
错误:
错误:类JavaSparkContext中的方法newAPIHadoopFile不能为空
适用于给定类型;
JavaPairdd floatimages=jsc.newAPIHadoopFile(“hdfs://cluster-1-m/user/ibi/sampleimages.hib,HibInputFormat.class,HipiImageHeader.class,FloatImage.class,
新配置());
^必需:找到字符串、类、类、类、配置:
字符串,类,类,类,配置
原因:推断类型不符合相等约束
推断:HipiImage
相等约束:HipiImage、FLOATMIMAGE,其中F、K、V是类型变量:
F扩展方法newAPIHadoopFile中声明的InputFormat(字符串、类、类、配置)
扩展方法newAPIHadoopFile中声明的对象(字符串、类、类、配置)
V扩展方法newAPIHadoopFile中声明的对象(字符串、类、类、配置)
当我将它们加载为HipiImages时,我没有得到这个错误!但是我不知道如何从hipi图像中获取数据,因为这个类中没有getData()和getPixelArray()方法
你们谁能告诉我如何从这张HIPII图像中获取数据?
或者对于已经将Spark与HIPI和bytedeco api一起使用的用户,他们是如何管理的