Java 使用自定义接收器从数据集接收流数据[Spark streaming]

Java 使用自定义接收器从数据集接收流数据[Spark streaming],java,apache-spark,apache-spark-sql,spark-streaming,apache-spark-dataset,Java,Apache Spark,Apache Spark Sql,Spark Streaming,Apache Spark Dataset,我是新来的Spark,这是图书馆 我有一个例子,我需要将数据集发送到自定义接收器的store(),然后从这个自定义接收器流式传输数据 我在自定义接收器类中以这种方式获取数据集: Dataset<Row> jdbcDF = spark.read() .format("jdbc") .option("url", "jdbc:mysql:dbserver") .option("dbtable", "schema.tablename") .option("user", "username")

我是新来的
Spark
,这是图书馆

我有一个例子,我需要将数据集发送到自定义接收器的
store()
,然后从这个自定义接收器流式传输数据

我在自定义接收器类中以这种方式获取数据集:

Dataset<Row> jdbcDF = spark.read()
.format("jdbc")
.option("url", "jdbc:mysql:dbserver")
.option("dbtable", "schema.tablename")
.option("user", "username")
.option("password", "password")
.load();
store(jdbcDF);
有可能以这种方式进行流式处理吗?

p.s不使用
结构化流媒体编程


提前谢谢你

spark不支持jdbc数据库表的流式传输。但它确实支持作为接收器。而是使用kafka connect将数据作为流式服务从DB表发送,并通过spark straming读取数据

你找到解决这个问题的办法了吗?