从Spark到Oracle服务器的JDBC连接

从Spark到Oracle服务器的JDBC连接,oracle,apache-spark,jdbc,Oracle,Apache Spark,Jdbc,当从Spark cluster连接到Oracle server时,到Oracle server的JDBC连接是从执行代码的节点/框建立的,还是从数据节点执行的?在后一种情况下,是否需要在所有数据节点上安装驱动程序才能连接到Oracle server 当从Spark cluster连接到Oracle server时,到Oracle server的JDBC连接是从执行代码的节点/框建立的,还是从数据节点执行的 始终从执行器节点加载数据。然而,驱动程序节点也需要访问数据库,以便能够获取元数据 在后一种

当从Spark cluster连接到Oracle server时,到Oracle server的JDBC连接是从执行代码的节点/框建立的,还是从数据节点执行的?在后一种情况下,是否需要在所有数据节点上安装驱动程序才能连接到Oracle server

当从Spark cluster连接到Oracle server时,到Oracle server的JDBC连接是从执行代码的节点/框建立的,还是从数据节点执行的

始终从执行器节点加载数据。然而,驱动程序节点也需要访问数据库,以便能够获取元数据

在后一种情况下,是否需要在所有数据节点上安装驱动程序才能连接到Oracle server

对。Spark应用程序使用的每个节点上都必须有驱动程序。这可以通过以下方式实现:

  • 在每个节点的类路径上具有所需的JAR
  • 使用
    spark.jars
    在运行时分发jar
  • 使用
    spark.jars.packages
    使用Maven坐标获取jar