Apache spark 将Pyspark连接到Oracle SQL

Apache spark 将Pyspark连接到Oracle SQL,apache-spark,jdbc,apache-spark-sql,oracle-sqldeveloper,ojdbc,Apache Spark,Jdbc,Apache Spark Sql,Oracle Sqldeveloper,Ojdbc,我几乎是个新手。我想将pyspark连接到oracle sql,我使用以下pyspark代码: from pyspark import SparkConf, SparkContext from pyspark.sql import SQLContext, Row import os spark_config = SparkConf().setMaster("local").setAppName("Project_SQL") sc = SparkContext(conf = spark_conf

我几乎是个新手。我想将pyspark连接到oracle sql,我使用以下pyspark代码:

from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext, Row
import os

spark_config = SparkConf().setMaster("local").setAppName("Project_SQL")
sc = SparkContext(conf = spark_config)
sqlctx = SQLContext(sc)

os.environ['SPARK_CLASSPATH'] = "C:\Program Files (x86)\Oracle\SQL Developer 4.0.1\jdbc\lib.jdbc6.jar"


df = sqlctx.read.format("jdbc").options(url="jdbc:oracle:thin:@<>:<>:<>"
                                   , driver = "oracle.ojdbc6.jar.OracleDriver"
                                   , dbtable = "account"
                                   , user="...."
                                   , password="...").load()
我搜索了很多,并尝试了几种方法来更改/纠正驱动程序的路径,但仍然得到了相同的错误


有人能帮我吗?

尝试将oracle JDBC connectivity jar放在spark下的jars文件夹中。oracle.ojdbc6.jar。OracleDriver不是oracle JDBC驱动程序的有效驱动程序类名。驱动程序的名称是
oracle.jdbc.driver.OracleDriver
。只需确保Oracle驱动程序的jar文件位于类路径上。

它的意思是:调用o29.load时发生错误。:java.sql.SQLRecoverableException:IO错误:网络适配器无法建立连接。您知道原因是什么吗?@zahrarabiei;(和其他);由于您在问题中似乎匿名了JDBCURL,我无法进一步回答。如果这些链接没有帮助,请先尝试谷歌搜索,否则会发布新问题。
An error occurred while calling o29.load.: 
java.lang.ClassNotFoundExceotion : oracle.ojdbc6.jar.OracleDriver