Apache spark 基于Scala的火花分析
如何将Apache spark 基于Scala的火花分析,apache-spark,cassandra,rdd,Apache Spark,Cassandra,Rdd,如何将rdd(单位)变量与s(字符串)进行比较 例如,存储在s中的值为: val lines=KafkaUtils.createDirectStream[String,String,StringDecoder,StringDecoder](ssc,kafkaParams,topics).map(_._2) val data1 = ssc.cassandraTable("test","login").where("email=?","abc@xyz.com") val f =data1.fir
rdd
(单位)变量与s
(字符串)进行比较
例如,存储在s中的值为:
val lines=KafkaUtils.createDirectStream[String,String,StringDecoder,StringDecoder](ssc,kafkaParams,topics).map(_._2)
val data1 = ssc.cassandraTable("test","login").where("email=?","abc@xyz.com")
val f =data1.first
println(f)
val s =f.getString("email")
println(s)
lines.foreachRDD{rdd =>rdd.foreach { println
//if(s==rd)
//convert(rdd=>rdd.toString)
//rdd.collect()
}}
存储在rdd中的值为:
abc@xyz.com
我试着将其与if条件进行正常比较,它给出了以下错误
"abc@xyz.com"
感谢您的任何帮助。lines.foreachRDD{rdd=>rdd.foreach{ rdd=>函数调用(rdd) }} def func_调用(s:字符串){ //在这里,返回的rdd可以被视为字符串,并可以与其他字符串进行比较
}如果您能告诉我们一些您的用例,您通过卡夫卡获得了什么样的信息,这将非常有帮助?以及你最终想要实现的目标。
type mismatch;
[error] found : String
[error] required: String => Unit