Apache spark Pyspark:向筛选函数添加参数
请提供一些帮助:我需要为此函数添加一个参数,但此语法不正确:Apache spark Pyspark:向筛选函数添加参数,apache-spark,pyspark,Apache Spark,Pyspark,请提供一些帮助:我需要为此函数添加一个参数,但此语法不正确: val input_parameter = 100 df_filtered = (df.filter(( (F.col('LOCID') != F.col('LOCID2') ) & (F.col('distance') <= F.col('RADIUSINMETERS') + F.col('RADIUSINMETERS2') + input_parameter)
val input_parameter = 100
df_filtered = (df.filter(( (F.col('LOCID') != F.col('LOCID2') ) &
(F.col('distance') <= F.col('RADIUSINMETERS') + F.col('RADIUSINMETERS2') + input_parameter)
))
)
val输入参数=100
df_filtered=(df.filter((F.col('LOCID')!=F.col('LOCID2'))和
(F.col('distance')Spark需要知道您正在传递一个变量,为此,我们需要确保在文档中的lit()
函数中传递
创建具有文字值的列
更多阅读可能F.lit(输入参数)
?谢谢!我刚刚删除了val,它现在工作了谢谢,最后我可以从行中删除val
,谢谢!