Scala 使用;“提供”;使用sbt中断Spark的Intellij语法高亮显示

Scala 使用;“提供”;使用sbt中断Spark的Intellij语法高亮显示,scala,intellij-idea,sbt,sbt-assembly,Scala,Intellij Idea,Sbt,Sbt Assembly,我的依赖项如下。Spark的人告诉我,我应该在Spark依赖项之后添加%“provided”,这样它们就不会与我的jar捆绑在一起(我并不同意,但无论如何)。现在,如果我添加了“提供”,则Spark模块的语法突出显示将中断:(所有内容都以红色突出显示(未解决)(在我执行sbt gen idea之后)。它将继续生成OK 有人找到了解决方案吗?我担心我可能不得不在编译之前拼凑一个脚本,添加“提供的”单词,然后在构建之后删除它们 让Spark、SBT和Intellij一起玩就像玩怪胎一样,似乎如果你怪

我的依赖项如下。Spark的人告诉我,我应该在Spark依赖项之后添加
%“provided”
,这样它们就不会与我的jar捆绑在一起(我并不同意,但无论如何)。现在,如果我添加了“提供”,则Spark模块的语法突出显示将中断:(所有内容都以红色突出显示(未解决)(在我执行
sbt gen idea
之后)。它将继续生成OK

有人找到了解决方案吗?我担心我可能不得不在编译之前拼凑一个脚本,添加“提供的”单词,然后在构建之后删除它们

让Spark、SBT和Intellij一起玩就像玩怪胎一样,似乎如果你怪胎一个问题,另一个问题就会出现

libraryDependencies ++= Seq(
  "org.scalacheck" %% "scalacheck" % "1.10.1" % "test" withSources() withJavadoc(),
  "org.specs2" %% "specs2" % "1.14" % "test" withSources() withJavadoc(),
  "org.scalaz" %% "scalaz-core" % "7.0.5" withSources() withJavadoc(),
  "org.apache.commons" % "commons-math3" % "3.2" withSources() withJavadoc(),
  "io.spray" %%  "spray-json" % "1.3.1" withSources() withJavadoc(),
  ("org.apache.spark" % "spark-sql_2.10" % "1.0.0-cdh5.1.3") withSources() withJavadoc(),
  ("org.apache.spark" % "spark-core_2.10" % "1.0.0-cdh5.1.3") withSources() withJavadoc()
)
提供:

  ("org.apache.spark" % "spark-sql_2.10" % "1.0.0-cdh5.1.3" % "provided") withSources() withJavadoc(),
  ("org.apache.spark" % "spark-core_2.10" % "1.0.0-cdh5.1.3" % "provided") withSources() withJavadoc()