Apache spark 如何避免spark提交缓存

Apache spark 如何避免spark提交缓存,apache-spark,Apache Spark,火花提交作业放在CDH中,有一件奇怪的事情。它总是抱怨一个查询(下面的XXX),但这个查询不在当前应用程序中,它是以前使用过的旧查询,并且被删除了。看起来某处有缓存 代码很简单,var extract=sqlContext.sql(“…”) 如何修复它?谢谢 16/11/13 22:12:29 INFO DAGScheduler: Job 1 finished: aggregate at InferSchema.scala:41, took 3.032230 s Exception in thr

火花提交作业放在CDH中,有一件奇怪的事情。它总是抱怨一个查询(下面的XXX),但这个查询不在当前应用程序中,它是以前使用过的旧查询,并且被删除了。看起来某处有缓存

代码很简单,var extract=sqlContext.sql(“…”)

如何修复它?谢谢

16/11/13 22:12:29 INFO DAGScheduler: Job 1 finished: aggregate at InferSchema.scala:41, took 3.032230 s
Exception in thread "main" org.apache.spark.sql.AnalysisException: cannot resolve 'XXX' (string and boolean).;
        at org.apache.spark.sql.catalyst.analysis.package$AnalysisErrorAt.failAnalysis(package.scala:42)
        at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1$$anonfun$apply$2.applyOrElse(CheckAnalysis.scala:61)
        at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1$$anonfun$apply$2.applyOrElse(CheckAnalysis.scala:53)
        at org.apache.spark.sql.catalyst.trees.TreeNode$$anonfun$transformUp$1.apply(TreeNode.scala:293)

谢谢。

您可能需要删除旧jar并重新构建它以供执行