在scala spark中的列上使用指数函数如何使其工作

在scala spark中的列上使用指数函数如何使其工作,scala,apache-spark,Scala,Apache Spark,这就是我想要实现的代码。我得到过载错误。有办法绕过它吗 import scala.math._ dF = dF.withColumn("col2",(8.333*exp($"col1"))) error: type mismatch; found : org.apache.spark.sql.ColumnName required: Double 如何执行像这样的指数运算?您可以在spark中使用与 import org.apache.spark.sql.functions.exp

这就是我想要实现的代码。我得到过载错误。有办法绕过它吗

import scala.math._

dF = dF.withColumn("col2",(8.333*exp($"col1")))
error: type mismatch;
 found   : org.apache.spark.sql.ColumnName
 required: Double

如何执行像这样的指数运算?

您可以在spark中使用与

import org.apache.spark.sql.functions.exp

dF = dF.withColumn("col2",exp($"col1"))
您正试图使用
scala.math
中的
exp
函数,该函数需要
Double
,但您正在传递
列,因此它不起作用。Spark的功能与您可以使用的功能相同


希望这有帮助

当您使用dF=dF.withColumn(“col2”(8.444*exp($“col1”))时,也会出现相同的错误。导入org.apache.spark.sql.functions.exp时,是否仍然会出现错误