是否可以从Spark SQL连接到TeraData并在其上运行查询?
到目前为止,我已经能够使用spark SQL连接Mysql数据库并运行查询,使用Mysql JDBC驱动程序将其注册为spark数据帧 是否可以从Spark SQL连接到TeraData并在其上运行查询 是的,这是可能的 加载特定于teradata的类驱动程序是否可以从Spark SQL连接到TeraData并在其上运行查询?,sql,apache-spark,teradata,Sql,Apache Spark,Teradata,到目前为止,我已经能够使用spark SQL连接Mysql数据库并运行查询,使用Mysql JDBC驱动程序将其注册为spark数据帧 是否可以从Spark SQL连接到TeraData并在其上运行查询 是的,这是可能的 加载特定于teradata的类驱动程序 val sqlcontext=new org.apache.spark.sql.SQLContext(sc) Df_name=sqlcontext.load("JDBC",Map("url->uri to teradata","d
val sqlcontext=new org.apache.spark.sql.SQLContext(sc)
Df_name=sqlcontext.load("JDBC",Map("url->uri to teradata","dbtable->name"))
将其注册为临时表并对其进行查询是的,这是可能的
加载特定于teradata的类驱动程序
val sqlcontext=new org.apache.spark.sql.SQLContext(sc)
Df_name=sqlcontext.load("JDBC",Map("url->uri to teradata","dbtable->name"))
将其注册为临时表并对其进行查询
问题:是否可以从Spark SQL和SQL连接到TeraData
检查一下
是的,这是可能的
创建一个如下示例所示的数据框架,并在此基础上运行spark sql
下面是spark jdbc的方法
val jdbcDF = sqlContext.load("jdbc", Map(
"url" -> "jdbc:teradata://<server_name>, TMODE=TERA, user=my_user, password=*****",
"dbtable" -> "schema.table_name", // here also can be select query
"driver" -> "com.teradata.jdbc.TeraDriver"))
问题:是否可以从Spark SQL和SQL连接到TeraData
检查一下
是的,这是可能的
创建一个如下示例所示的数据框架,并在此基础上运行spark sql
下面是spark jdbc的方法
val jdbcDF = sqlContext.load("jdbc", Map(
"url" -> "jdbc:teradata://<server_name>, TMODE=TERA, user=my_user, password=*****",
"dbtable" -> "schema.table_name", // here also can be select query
"driver" -> "com.teradata.jdbc.TeraDriver"))
确保将jar添加到类路径中,并在运行应用程序时包含它 sc.addJaryourDriver.jar val jdbcDF=sqlContext.loadjdbc,映射 url->jdbc:teradata://,TMODE=TERA,user=my_user,password=*****, dbtable->schema.table\u名称,
驱动程序->com.teradata.jdbc.TeraDriver确保将jar添加到类路径中,并在运行应用程序时包含它 sc.addJaryourDriver.jar val jdbcDF=sqlContext.loadjdbc,映射 url->jdbc:teradata://,TMODE=TERA,user=my_user,password=*****, dbtable->schema.table\u名称, 驱动程序->com.teradata.jdbc.TeraDriver