Apache spark Spark文件流语法

Apache spark Spark文件流语法,apache-spark,Apache Spark,我无法提及文件流中的输入格式。如何给出这种输入格式。 这是我得到的方法签名 java.lang.ClassCastException: java.lang.Object cannot be cast to org.apache.hadoop.mapreduce.InputFormat 在这篇文章中,我将介绍如何指定输入格式。在浪费了我一天的时间后…用scala编写了一个实用程序 public <K,V,F extends org.apache.hadoop.mapreduce.Input

我无法提及文件流中的输入格式。如何给出这种输入格式。 这是我得到的方法签名

java.lang.ClassCastException: java.lang.Object cannot be cast to org.apache.hadoop.mapreduce.InputFormat

在这篇文章中,我将介绍如何指定输入格式。

在浪费了我一天的时间后…用scala编写了一个实用程序

public <K,V,F extends org.apache.hadoop.mapreduce.InputFormat<K,V>> JavaPairInputDStream<K,V> fileStream(String directory).
并从java对此进行了评审。
感谢任何更好的解决方案。

我也面临同样的问题

这似乎是一个bug,已修复Spark 1.3.0

public <K,V,F extends org.apache.hadoop.mapreduce.InputFormat<K,V>> JavaPairInputDStream<K,V> fileStream(String directory).
class ZipFileStream {
  def fileStream(path: String, ssc: StreamingContext): JavaPairInputDStream[Text, BytesWritable] = {
    return ssc.fileStream[Text, BytesWritable, ZipFileInputFormat](path)

  }
}