Apache spark Pyspark:向筛选函数添加参数

Apache spark Pyspark:向筛选函数添加参数,apache-spark,pyspark,Apache Spark,Pyspark,请提供一些帮助:我需要为此函数添加一个参数,但此语法不正确: val input_parameter = 100 df_filtered = (df.filter(( (F.col('LOCID') != F.col('LOCID2') ) & (F.col('distance') <= F.col('RADIUSINMETERS') + F.col('RADIUSINMETERS2') + input_parameter)

请提供一些帮助:我需要为此函数添加一个参数,但此语法不正确:

val input_parameter = 100
df_filtered = (df.filter(( (F.col('LOCID') != F.col('LOCID2') ) & 
                           (F.col('distance') <= F.col('RADIUSINMETERS') + F.col('RADIUSINMETERS2') + input_parameter)  
                        ))
              )
val输入参数=100
df_filtered=(df.filter((F.col('LOCID')!=F.col('LOCID2'))和

(F.col('distance')Spark需要知道您正在传递一个变量,为此,我们需要确保在文档中的
lit()
函数中传递

创建具有文字值的列


更多阅读

可能
F.lit(输入参数)
?谢谢!我刚刚删除了val,它现在工作了谢谢,最后我可以从行中删除
val
,谢谢!