Java 将jdbc连接传递到spark read

Java 将jdbc连接传递到spark read,java,apache-spark,jdbc,Java,Apache Spark,Jdbc,我有一个sql脚本,它可以创建只对该会话有效的临时表。现在,在运行脚本之后,我尝试通过spark从表中读取数据,然后对其进行处理。下面是我为spark read编写的代码 sparkSession.read().format("jdbc").option("url", jdbcURL).option("dbtable", tableOrQuery).option("user", userName).option("password", password) .option("dri

我有一个sql脚本,它可以创建只对该会话有效的临时表。现在,在运行脚本之后,我尝试通过spark从表中读取数据,然后对其进行处理。下面是我为spark read编写的代码

sparkSession.read().format("jdbc").option("url", 
jdbcURL).option("dbtable", tableOrQuery).option("user", 
userName).option("password", password)
      .option("driver", driverName).load();

现在我需要传递我创建的jdbc连接,以便spark可以在同一会话中读取数据。这可能吗?

不,您不能将jdbc连接传递给spark。它将自行管理JDBC连接


谢谢你们有什么建议我可以做吗?你们可以得到连接元数据并根据它构建Spark URL,顺便说一句,解决方案是我不久前回答的-TL;博士根本不可能有这样的选择。