如何使用ImageSchema类Java语言读取apache spark图像

如何使用ImageSchema类Java语言读取apache spark图像,java,apache-spark,apache-spark-sql,apache-spark-ml,Java,Apache Spark,Apache Spark Sql,Apache Spark Ml,从HDFS读取图像文件并使用ImageSchema类时出现问题 我不知道如何获取图像数据和集成的OpenCV库 谢谢大家您可以使用ImageSchema.readImages方法尝试下面的示例来读取图像文件 import static org.apache.spark.sql.functions.col; import org.apache.spark.ml.image.ImageSchema; import org.apache.spark.sql.Dataset; import org.ap

从HDFS读取图像文件并使用ImageSchema类时出现问题 我不知道如何获取图像数据和集成的OpenCV库


谢谢大家

您可以使用
ImageSchema.readImages
方法尝试下面的示例来读取图像文件

import static org.apache.spark.sql.functions.col;
import org.apache.spark.ml.image.ImageSchema;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.opencv.core.Core;

public class ReadImageExample {
    public static void main(String[] args) {
        SparkSession spark = SparkSession.builder().appName("ReadImageExample").master("local").getOrCreate();
        Dataset<Row> ds = ImageSchema.readImages("C:\\temp", spark, false, 0, true, 1.0, 1);
        ds.printSchema();
        ds.select(col("image.width"), col("image.height"), col("image.mode")).show();
    }
}
import static org.apache.spark.sql.functions.col;
导入org.apache.spark.ml.image.ImageSchema;
导入org.apache.spark.sql.Dataset;
导入org.apache.spark.sql.Row;
导入org.apache.spark.sql.SparkSession;
导入org.opencv.core.core;
公共类ReadImageExample{
公共静态void main(字符串[]args){
SparkSession spark=SparkSession.builder().appName(“ReadImageExample”).master(“local”).getOrCreate();
数据集ds=ImageSchema.readImages(“C:\\temp”,spark,false,0,true,1.0,1);
ds.printSchema();
选择(col(“image.width”)、col(“image.height”)、col(“image.mode”)).show();
}
}
您将需要以下依赖项

<dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.11</artifactId>
            <version>2.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.11</artifactId>
            <version>2.3.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-mllib_2.11</artifactId>
            <version>2.3.1</version>
        </dependency>
</dependencies>

org.apache.spark
spark-core_2.11
2.3.1
org.apache.spark
spark-sql_2.11
2.3.1
org.apache.spark
spark-mllib_2.11
2.3.1

Thank@abaghel,代码工作非常出色,这有助于我了解这个想法