Apache spark 在spark sql中调用json函数
我正在尝试使用Spark 2.1中新的to_json函数将映射类型列转换为json。下面的代码片段:Apache spark 在spark sql中调用json函数,apache-spark,apache-spark-sql,spark-dataframe,Apache Spark,Apache Spark Sql,Spark Dataframe,我正在尝试使用Spark 2.1中新的to_json函数将映射类型列转换为json。下面的代码片段: import org.apache.spark.sql.functions.to_json val df = spark.sql("SELECT *, to_json(Properties) AS Prop, to_json(Measures) AS Meas FROM tempTable") 然而,我得到了下面的错误。有什么想法吗 org.apache.spark.sql.
import org.apache.spark.sql.functions.to_json
val df = spark.sql("SELECT *, to_json(Properties) AS Prop, to_json(Measures) AS Meas FROM tempTable")
然而,我得到了下面的错误。有什么想法吗
org.apache.spark.sql.AnalysisException: Undefined function: 'to_json'. This function is neither a registered temporary function nor a permanent function registered in the database 'default'.; line 1 pos 10
attreable
的模式是什么?为什么不直接使用Dataset API和来使用json
(而是使用spark.sql
)?转换的列类型是映射的。将尝试数据集API。to_json
可用于数据帧/数据集。您正在尝试在SQL/Hive中执行它。attreable
的模式是什么?为什么不直接使用Dataset API和来使用json
(而是使用spark.sql
)?转换的列类型是映射的。将尝试数据集API。to_json
可用于数据帧/数据集。您正在尝试在SQL/Hive中执行它。