在scala spark中的列上使用指数函数如何使其工作
这就是我想要实现的代码。我得到过载错误。有办法绕过它吗在scala spark中的列上使用指数函数如何使其工作,scala,apache-spark,Scala,Apache Spark,这就是我想要实现的代码。我得到过载错误。有办法绕过它吗 import scala.math._ dF = dF.withColumn("col2",(8.333*exp($"col1"))) error: type mismatch; found : org.apache.spark.sql.ColumnName required: Double 如何执行像这样的指数运算?您可以在spark中使用与 import org.apache.spark.sql.functions.exp
import scala.math._
dF = dF.withColumn("col2",(8.333*exp($"col1")))
error: type mismatch;
found : org.apache.spark.sql.ColumnName
required: Double
如何执行像这样的指数运算?您可以在spark中使用与
import org.apache.spark.sql.functions.exp
dF = dF.withColumn("col2",exp($"col1"))
您正试图使用scala.math
中的exp
函数,该函数需要Double
,但您正在传递列,因此它不起作用。Spark的功能与您可以使用的功能相同
希望这有帮助 当您使用dF=dF.withColumn(“col2”(8.444*exp($“col1”))时,也会出现相同的错误。导入org.apache.spark.sql.functions.exp时,是否仍然会出现错误