Python Spark Sql查询使用硬编码值,但不使用变量
我有一个PySpark程序,其中有一个SQL查询,如下所示:Python Spark Sql查询使用硬编码值,但不使用变量,python,apache-spark,pyspark,pyspark-sql,Python,Apache Spark,Pyspark,Pyspark Sql,我有一个PySpark程序,其中有一个SQL查询,如下所示: id = 'abc1' info = sqlc.sql("SELECT * from df WHERE isn = 'id'") 此查询不起作用。返回的是一组空白值。但是,如果我硬编码该值,它就会工作 info = sqlc.sql("SELECT * from df WHERE isn = 'abc1'") 我试过str(id)只是为了确定。如何解决此问题?在Python 3.5或更早版本中使用格式: info = sqlc.
id = 'abc1'
info = sqlc.sql("SELECT * from df WHERE isn = 'id'")
此查询不起作用。返回的是一组空白值。但是,如果我硬编码该值,它就会工作
info = sqlc.sql("SELECT * from df WHERE isn = 'abc1'")
我试过
str(id)
只是为了确定。如何解决此问题?在Python 3.5或更早版本中使用格式:
info = sqlc.sql("SELECT * from df WHERE isn = '{id}'".format(id=id))
或
Python 3.6及更高版本中的文字字符串格式:
info = sqlc.sql(f"SELECT * from df WHERE isn = '{id}'")
在Python 3.5或更早版本中使用格式:
info = sqlc.sql("SELECT * from df WHERE isn = '{id}'".format(id=id))
或
Python 3.6及更高版本中的文字字符串格式:
info = sqlc.sql(f"SELECT * from df WHERE isn = '{id}'")