Pyspark 如何在pysark中执行SQL截断表
我正在尝试使用以下代码使用pyspark截断Oracle表Pyspark 如何在pysark中执行SQL截断表,pyspark,Pyspark,我正在尝试使用以下代码使用pyspark截断Oracle表 truncatesql = """ truncate table mytable """ mape=spark.read \ .format("jdbc") \ .option("url", DB_URL) \ .option("driver", "oracle.jdb
truncatesql = """ truncate table mytable """
mape=spark.read \
.format("jdbc") \
.option("url", DB_URL) \
.option("driver", "oracle.jdbc.driver.OracleDriver") \
.option("dbtable", truncatesql) \
.load()
但它不断抛出
java.sql.SQLSyntaxErrorException:ORA-00933:sql命令未正确结束
如何使用直接sql查询截断表?请尝试使用别名包装您的查询
示例:
truncatesql = """(truncate table mytable)e"""
mape=spark.read \
.format("jdbc") \
.option("url", DB_URL) \
.option("driver", "oracle.jdbc.driver.OracleDriver") \
.option("dbtable", truncatesql) \
.load()
将dbtable
替换为query
:.option(“query”,truncatesql)
returnjava.sql.SQLSyntaxErrorException:ORA-00907:缺少右括号