Java 如何为Spark中的SaveAsSequenceFile方法提供编解码器?
我试图弄清楚如何在ApacheSpark中将编解码器传递给saveAsSequenceFile方法。下面是我试图运行的代码。我正在运行Scala 2.10.4、Spark 1.0.0、Java 1.7.60和Apache Hadoop 2.4.0Java 如何为Spark中的SaveAsSequenceFile方法提供编解码器?,java,scala,hadoop,apache-spark,Java,Scala,Hadoop,Apache Spark,我试图弄清楚如何在ApacheSpark中将编解码器传递给saveAsSequenceFile方法。下面是我试图运行的代码。我正在运行Scala 2.10.4、Spark 1.0.0、Java 1.7.60和Apache Hadoop 2.4.0 val rdd:RDD[(String, String)] = sc.sequenceFile(secPath, classOf[Text],
val rdd:RDD[(String, String)] = sc.sequenceFile(secPath,
classOf[Text],
classOf[Text]
).map { case (k,v) => (k.toString, v.toString)}
val sortedOutput = rdd.sortByKey(true, 1)
sortedOutput.saveAsSequenceFile(secPathOut)
我的问题是我不熟悉Spark和Scala。我不明白javadoc对于传递给saveAsSequenceFile方法的codec变量意味着什么
def saveAsSequenceFile(path: String, codec: Option[Class[_ <: CompressionCodec]] = None): Unit
def saveAsSequenceFile(路径:字符串,编解码器:选项[Class[\up>The
sc.parallelize(List((1,2))).saveAsSequenceFile("path",Some(classOf[GzipCodec]))