Python 无法将变量传递给pyspark中的spark sql查询
我有一个日期数据类型的python变量(我使用的是pyspark): 变量值为2016-10-31Python 无法将变量传递给pyspark中的spark sql查询,python,sql,apache-spark,pyspark,Python,Sql,Apache Spark,Pyspark,我有一个日期数据类型的python变量(我使用的是pyspark): 变量值为2016-10-31 print type(load_dt) >> <type 'datetime.date'> 添加引号: "select * from tbl t1 where cast (substring(t1.dt,1,10) as date) = '{0}'" 否则,日期将转换为2016-10-31字符串,并解释为算术表达式: 2016 - 10 - 31 2016 -
print type(load_dt)
>> <type 'datetime.date'>
添加引号:
"select * from tbl t1 where cast (substring(t1.dt,1,10) as date) = '{0}'"
否则,日期将转换为2016-10-31
字符串,并解释为算术表达式:
2016 - 10 - 31
2016 - 10 - 31