Apache spark Spark文件流语法
我无法提及文件流中的输入格式。如何给出这种输入格式。 这是我得到的方法签名Apache spark Spark文件流语法,apache-spark,Apache Spark,我无法提及文件流中的输入格式。如何给出这种输入格式。 这是我得到的方法签名 java.lang.ClassCastException: java.lang.Object cannot be cast to org.apache.hadoop.mapreduce.InputFormat 在这篇文章中,我将介绍如何指定输入格式。在浪费了我一天的时间后…用scala编写了一个实用程序 public <K,V,F extends org.apache.hadoop.mapreduce.Input
java.lang.ClassCastException: java.lang.Object cannot be cast to org.apache.hadoop.mapreduce.InputFormat
在这篇文章中,我将介绍如何指定输入格式。在浪费了我一天的时间后…用scala编写了一个实用程序
public <K,V,F extends org.apache.hadoop.mapreduce.InputFormat<K,V>> JavaPairInputDStream<K,V> fileStream(String directory).
并从java对此进行了评审。
感谢任何更好的解决方案。我也面临同样的问题 这似乎是一个bug,已修复Spark 1.3.0
public <K,V,F extends org.apache.hadoop.mapreduce.InputFormat<K,V>> JavaPairInputDStream<K,V> fileStream(String directory).
class ZipFileStream {
def fileStream(path: String, ssc: StreamingContext): JavaPairInputDStream[Text, BytesWritable] = {
return ssc.fileStream[Text, BytesWritable, ZipFileInputFormat](path)
}
}