为什么当我从URL解析Spark(scala)中的jason字符串时没有得到任何结果
我正在尝试从URL读取Jason对象并尝试解析,当我这样做时,返回的是无,请有人在这里帮助我为什么当我从URL解析Spark(scala)中的jason字符串时没有得到任何结果,scala,apache-spark,apache-spark-sql,Scala,Apache Spark,Apache Spark Sql,我正在尝试从URL读取Jason对象并尝试解析,当我这样做时,返回的是无,请有人在这里帮助我 URL DATA: col = """{"column1":"1","column2":"2"}""" 逻辑: import scala.util.parsing.json.JSON._ for (line <- Source.fromURL("/u/r/l").getLines) { try { val xrp=line.split("=")(1) val head = scala.util.
URL DATA: col = """{"column1":"1","column2":"2"}"""
逻辑:
import scala.util.parsing.json.JSON._
for (line <- Source.fromURL("/u/r/l").getLines) {
try {
val xrp=line.split("=")(1)
val head = scala.util.parsing.json.JSON.parseFull(xrp)
} catch {
case e: Exception => None
}
}
但是我失败了,读了URL目录。有人能帮我吗?那是因为两边都有三重引号 试一试 或
也许你的URL是错误的,但我认为没有足够的信息让我们重现你的问题。您可以从删除try/catch开始,因为这似乎正在吞噬异常。旁注:我认为您没有正确使用None。
al someval = """{"column1":"1","column2":"2"}"""
someval: String = {"column1":"1","column2":"2"}
val head = scala.util.parsing.json.JSON.parseFull(someval)
head: Option[Any] = Some(Map(column1 -> 1, column2 -> 2))
scala.util.parsing.json.JSON.parseFull(xrp.trim.drop(3).dropRight(3))
val pattern = "(\\{.*\\})".r
pattern.findFirstIn(xrp).flatMap(s => scala.util.parsing.json.JSON.parseFull(s))