在API网关中基于JSON创建scala筛选器条件

在API网关中基于JSON创建scala筛选器条件,scala,filter,apache-spark-sql,Scala,Filter,Apache Spark Sql,我正在获取Spark SQL的JSON筛选条件。JSON将采用以下格式: { "x": { "LT": "2" } } 应该变成这样:spark.sql(“从df中选择*,其中x“>” 案例“LT”=>"你能用df.show输出更新问题吗?parquet是一个大约有1000行80列的文件。不确定为什么需要输出。我只是想看看示例,了解你想做什么,因为你的问题有点令人困惑。你能用df.show输出更新问题吗?parquet是一个大约有1000行80列的文件。不是吗确

我正在获取Spark SQL的JSON筛选条件。JSON将采用以下格式:

{
    "x": {
        "LT": "2"
    }
}
应该变成这样:
spark.sql(“从df中选择*,其中x<2”)

你知道我该怎么做吗?使用从拼花地板文件读取数据

spark.read.parquet(filePath)
因此,代码如下:

val df = spark.read.parquet(filePath)
implicit val formats = org.json4s.DefaultFormats
parse(filterJson).extract[Map[String, Any]]
// Once tables have been registered, you can run SQL queries over them.
for((k,v)<-Map){
  v match {
    case "EQ"=>"==="
    case "GT"=>">"
    case "LT"=>"<"
  }
}
df.filter(k)
val df=spark.read.parquet(文件路径)
隐式val格式=org.json4s.DefaultFormats
parse(filterJson).extract[Map[String,Any]]
//表注册后,可以对其运行SQL查询。
对于((k,v)“=”
案例“GT”=>“>”

案例“LT”=>"你能用df.show输出更新问题吗?parquet是一个大约有1000行80列的文件。不确定为什么需要输出。我只是想看看示例,了解你想做什么,因为你的问题有点令人困惑。你能用df.show输出更新问题吗?parquet是一个大约有1000行80列的文件。不是吗确定为什么需要输出..我只是想看看示例并了解您想要做什么,因为您的问题有点让人困惑。