Apache spark 如何在spark 1.6.3中用java编写spark上下文,以便将文件转换为数据帧。

Apache spark 如何在spark 1.6.3中用java编写spark上下文,以便将文件转换为数据帧。,apache-spark,Apache Spark,我试过这样做。但是没有运气。File1和file2在我的本地计算机中。不在hdfs中。请帮忙 SparkConf sparkConf = new SparkConf().setAppName("sample"); SparkContext sc = new SparkContext(sparkConf); SQLContext sqlContext = SQLContext.getOrCreate(sc); val file1=sc.textFile("file1

我试过这样做。但是没有运气。File1和file2在我的本地计算机中。不在hdfs中。请帮忙

    SparkConf sparkConf = new SparkConf().setAppName("sample");
    SparkContext sc = new SparkContext(sparkConf);
    SQLContext sqlContext = SQLContext.getOrCreate(sc);
    val file1=sc.textFile("file1.txt", minPartitions);
    val file2=sc.textFile("file2.txt", minPartitions);

如果您使用的是Java,为什么您的代码看起来像Scala?您好,Nephilim,我无法读取文本文件并将其转换为Java中的数据帧,因此尝试以这种方式使用,但运气不佳。我陷入了middleval file1=sc.textFile(“file1.txt”,minPartitions);-->在这一点上,我感到困惑。因为我的文件是本地文件,所以如何读取它。使用javasparkcontext在java中进行了尝试。但是当尝试加载文件时,在JavaRDD input1=sc.textFile(“D:/File1.txt”)处出现类似“JavaRDD无法解析为类型”的错误;SparkConf conf=new SparkConf().setMaster(“本地”).setAppName(“应用”);JavaSparkContext sc=新的JavaSparkContext(conf);JavaRDD input1=sc.textFile(“D:/File1.txt”);JavaRDD input2=sc.textFile(“D:/File2.txt”);