Pyspark 如何在pysark中执行SQL截断表

Pyspark 如何在pysark中执行SQL截断表,pyspark,Pyspark,我正在尝试使用以下代码使用pyspark截断Oracle表 truncatesql = """ truncate table mytable """ mape=spark.read \ .format("jdbc") \ .option("url", DB_URL) \ .option("driver", "oracle.jdb

我正在尝试使用以下代码使用pyspark截断Oracle表

truncatesql = """ truncate table mytable  """

mape=spark.read \
      .format("jdbc") \
      .option("url", DB_URL) \
      .option("driver", "oracle.jdbc.driver.OracleDriver") \
      .option("dbtable", truncatesql) \
      .load()

但它不断抛出
java.sql.SQLSyntaxErrorException:ORA-00933:sql命令未正确结束
如何使用直接sql查询截断表?

请尝试使用
别名包装您的查询

示例:

truncatesql = """(truncate table mytable)e"""
mape=spark.read \
      .format("jdbc") \
      .option("url", DB_URL) \
      .option("driver", "oracle.jdbc.driver.OracleDriver") \
      .option("dbtable", truncatesql) \
      .load()

dbtable
替换为
query
.option(“query”,truncatesql)
return
java.sql.SQLSyntaxErrorException:ORA-00907:缺少右括号