Scala 使用Spark when函数,但不使用其他函数,但保留列值
我经常发现自己使用Scala 使用Spark when函数,但不使用其他函数,但保留列值,scala,apache-spark,Scala,Apache Spark,我经常发现自己使用 when($"myCol".isNull,myCrazyFunction).otherwise($"myCol") 对我来说,。否则($“mycl”)感觉有点多余 有没有更好的方法来替换某些条件下的某些值,或者不使用“否则”而保持一切不变?我认为您可以使用它 select(coalesce($"myCol", myCrazyFunction)) 请记住,myCrazyFunction应该返回一个列类型。我想您可以使用它 select(coalesce($"myCol",
when($"myCol".isNull,myCrazyFunction).otherwise($"myCol")
对我来说,。否则($“mycl”)
感觉有点多余
有没有更好的方法来替换某些条件下的某些值,或者不使用“否则”而保持一切不变?我认为您可以使用它
select(coalesce($"myCol", myCrazyFunction))
请记住,myCrazyFunction
应该返回一个列
类型。我想您可以使用它
select(coalesce($"myCol", myCrazyFunction))
请记住,myCrazyFunction
应该返回一个列
类型