Apache spark 是否可以在spark中的SELECT或WHERE语句中使用字符串?

Apache spark 是否可以在spark中的SELECT或WHERE语句中使用字符串?,apache-spark,pyspark,databricks,Apache Spark,Pyspark,Databricks,我正在处理一些文本数据,并将它们转换成可解释的命令,这些命令将用作WHERE语句的参数,但我得到一个字符串,我不知道如何使用它 例如,从字符串: 'c_programme_nom == "2-Broke-Girls"' 我得到: "F.col('name').like('%2-Broke-Girls%')" 但是我得到一个字符串,我想在WHERE语句中将它用作参数 预期结果将是: df.where(F.col('name').like('%2-Broke-Girls%')) 我不知道是否有

我正在处理一些文本数据,并将它们转换成可解释的命令,这些命令将用作WHERE语句的参数,但我得到一个字符串,我不知道如何使用它

例如,从字符串:

'c_programme_nom == "2-Broke-Girls"'
我得到:

"F.col('name').like('%2-Broke-Girls%')"
但是我得到一个字符串,我想在WHERE语句中将它用作参数

预期结果将是:

df.where(F.col('name').like('%2-Broke-Girls%'))

我不知道是否有办法做到这一点。

似乎您希望执行包含以下代码的字符串:

您可以在python中使用:

函数用于动态执行Python程序,该程序可以是字符串或目标代码。如果它是一个字符串,则该字符串将被解析为一组Python语句,然后执行这些语句,除非出现语法错误,如果它是一个目标代码,则只执行它


有点不清楚您想要什么。您可以使用python中的
exec()
来执行包含code
exec(“print(10)”)的字符串。
将给出
10
Ty这就是我要找的,sry如果我没有找到你,这就是我要找的
exec('print("The sum of 5 and 10 is", (5+10))')
# The sum of 5 and 10 is 15