Postgresql Spark Streaming:从Kafka写入PSQL表

Postgresql Spark Streaming:从Kafka写入PSQL表,postgresql,scala,apache-spark-sql,spark-streaming,spark-dataframe,Postgresql,Scala,Apache Spark Sql,Spark Streaming,Spark Dataframe,使用Spark Streaming将卡夫卡的数据流数据写入Postgres等SQL表的正确方法是什么 比如说,我想要这个 val directKafkaStream = KafkaUtils.createDirectStream[..] 使用forEachRDD,我将把数据映射到一个case类。然后,做一些类似的事情 SELECT * FROM table WHERE id = id_from_kafka_rdd; 然后,根据这一结果,我将进行一些其他比较,并决定是否使用Kafka的数据

使用Spark Streaming将卡夫卡的数据流数据写入Postgres等SQL表的正确方法是什么

比如说,我想要这个

 val directKafkaStream = KafkaUtils.createDirectStream[..]
使用forEachRDD,我将把数据映射到一个case类。然后,做一些类似的事情

SELECT * FROM table WHERE id = id_from_kafka_rdd; 
然后,根据这一结果,我将进行一些其他比较,并决定是否使用Kafka的数据更新Postgres表。实际上,我可能必须对Postgres表执行插入、更新等操作

正确的方法是什么?Spark SQL、DataFrames还是JDBC连接器方法?我是火花的初学者

提前谢谢