Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 使用spark和hipi(hadoop图像处理接口)进行图像处理_Java_Apache Spark_Image Processing_Hipi - Fatal编程技术网

Java 使用spark和hipi(hadoop图像处理接口)进行图像处理

Java 使用spark和hipi(hadoop图像处理接口)进行图像处理,java,apache-spark,image-processing,hipi,Java,Apache Spark,Image Processing,Hipi,我使用Spark与Hipi和bytedeco(opencv3.2.0)一起处理图像 在spark工作中,我尝试将数据加载到PairRDD中,然后处理这些图像(计算特征) 但是,当我尝试将hipi图像束(.hib)加载为FloatImages时,我得到了一个错误 代码: JavaPairRDD<HipiImageHeader,FloatImage> floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampl

我使用Spark与Hipi和bytedeco(opencv3.2.0)一起处理图像

在spark工作中,我尝试将数据加载到PairRDD中,然后处理这些图像(计算特征) 但是,当我尝试将hipi图像束(.hib)加载为FloatImages时,我得到了一个错误

代码:

JavaPairRDD<HipiImageHeader,FloatImage> floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampleimages.hib",HibInputFormat.class,HipiImageHeader.class,FloatImage.class, new Configuration());
javapairdd floatimages=jsc.newAPIHadoopFile(“hdfs://cluster-1-m/user/ibi/sampleimages.hib,HibInputFormat.class,HipiImageHeader.class,FloatImage.class,新配置();
错误:

错误:类JavaSparkContext中的方法newAPIHadoopFile不能为空 适用于给定类型; JavaPairdd floatimages=jsc.newAPIHadoopFile(“hdfs://cluster-1-m/user/ibi/sampleimages.hib,HibInputFormat.class,HipiImageHeader.class,FloatImage.class, 新配置()); ^必需:找到字符串、类、类、类、配置: 字符串,类,类,类,配置 原因:推断类型不符合相等约束 推断:HipiImage 相等约束:HipiImage、FLOATMIMAGE,其中F、K、V是类型变量: F扩展方法newAPIHadoopFile中声明的InputFormat(字符串、类、类、配置) 扩展方法newAPIHadoopFile中声明的对象(字符串、类、类、配置) V扩展方法newAPIHadoopFile中声明的对象(字符串、类、类、配置)

当我将它们加载为HipiImages时,我没有得到这个错误!但是我不知道如何从hipi图像中获取数据,因为这个类中没有getData()和getPixelArray()方法

你们谁能告诉我如何从这张HIPII图像中获取数据? 或者对于已经将Spark与HIPI和bytedeco api一起使用的用户,他们是如何管理的