Maven 无法在IntelliJ 14中生成Spark

Maven 无法在IntelliJ 14中生成Spark,maven,intellij-idea,apache-spark,Maven,Intellij Idea,Apache Spark,我按照中给出的步骤在IntelliJ中设置Spark项目(github主分支) 默认情况下,启用的配置文件是maven-3和scala-2.10 由于我遇到了错误value q不是StringContext的成员,我添加了: "Additional Compiler Options"-Xplugin:/home/test/.m2/repository/org/scalamacros/paradise_2.10.4/2.0.1/paradise_2.10.4-2.0.1.jar" 当我尝试重建

我按照中给出的步骤在IntelliJ中设置Spark项目(github主分支)

默认情况下,启用的配置文件是maven-3和scala-2.10

由于我遇到了错误
value q不是StringContext的成员,我添加了:

"Additional Compiler Options"-Xplugin:/home/test/.m2/repository/org/scalamacros/paradise_2.10.4/2.0.1/paradise_2.10.4-2.0.1.jar" 
当我尝试重建项目时,我收到以下错误(如邮件列表中所报告):

我尚未启用配置单元配置文件,但仍收到上面的错误


任何人都可以给出构建Spark并从IntelliJ IDE运行示例的分步说明(中给出的说明除外?

按照wiki页面,您几乎完成了IntelliJ IDE设置中的所有步骤

对于“未找到HiveShim”问题,spark hive和sql/hive thriftserver使用了此文件。 您可以尝试:
1、点击IntelliJ maven项目选项卡中的“为所有项目生成源和更新文件夹”
2,单击左侧窗格中“packages”下的spark hive,然后转到“Open Module Settings”(打开模块设置),然后显式添加v0.12.0/src/main/scala 通过导航到源文件夹,然后+单击添加,将其添加到源文件夹
它是一个来源。

Intellij对spark的支持是一件碰运气的事情:我记得我见过spark 1.2和1.3的那些问题。每一个新版本通常都有新的故障类型,也有新的修复。从长远来看,情况正在改善。因为Spark 1.5通常intellij构建实际上“正常工作”。
Error:(169, 38) not found: value HiveShim 
...
Error:(255, 18) not found: type HiveFunctionWrapper 
...
/home/test/workspace/spark_source/spark->1.2.0/sql/hive/src/main/scala/org/apache/spark/sql/hive/parquet/FakeParquetSerD>e.scala Warning:(34, 2) @deprecated now takes two arguments; see the scaladoc. @deprecated("No code should depend on FakeParquetHiveSerDe as it is only intended as a " +