Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 使用Spark when函数,但不使用其他函数,但保留列值_Scala_Apache Spark - Fatal编程技术网

Scala 使用Spark when函数,但不使用其他函数,但保留列值

Scala 使用Spark when函数,但不使用其他函数,但保留列值,scala,apache-spark,Scala,Apache Spark,我经常发现自己使用 when($"myCol".isNull,myCrazyFunction).otherwise($"myCol") 对我来说,。否则($“mycl”)感觉有点多余 有没有更好的方法来替换某些条件下的某些值,或者不使用“否则”而保持一切不变?我认为您可以使用它 select(coalesce($"myCol", myCrazyFunction)) 请记住,myCrazyFunction应该返回一个列类型。我想您可以使用它 select(coalesce($"myCol",

我经常发现自己使用

when($"myCol".isNull,myCrazyFunction).otherwise($"myCol")
对我来说,
。否则($“mycl”)
感觉有点多余

有没有更好的方法来替换某些条件下的某些值,或者不使用“否则”而保持一切不变?

我认为您可以使用它

select(coalesce($"myCol", myCrazyFunction))
请记住,
myCrazyFunction
应该返回一个
类型。

我想您可以使用它

select(coalesce($"myCol", myCrazyFunction))
请记住,
myCrazyFunction
应该返回一个
类型