Scala IntelliJ无法解析Spark外部库
我正试图在IntelliJ中设置ApacheSpark项目(最新的主分支)Scala IntelliJ无法解析Spark外部库,scala,maven,apache-spark,intellij-idea,import,Scala,Maven,Apache Spark,Intellij Idea,Import,我正试图在IntelliJ中设置ApacheSpark项目(最新的主分支) IntelliJ IDEA 2016.2.5 Build #IC-162.2228.15, built on October 14, 2016 JRE: 1.8.0_112-release-287-b2 x86_64 JVM: OpenJDK 64-Bit Server VM by JetBrains s.r.o 从IntelliJ“外部库”部分导入所有库失败 我尝试了文件->使缓存无效/重新启动和maven win
IntelliJ IDEA 2016.2.5
Build #IC-162.2228.15, built on October 14, 2016
JRE: 1.8.0_112-release-287-b2 x86_64
JVM: OpenJDK 64-Bit Server VM by JetBrains s.r.o
从IntelliJ“外部库”部分导入所有库失败
我尝试了文件->使缓存无效/重新启动和maven window reimport按钮
,以及来自和的其他建议,但仍然不起作用
我只是觉得我的智能配置有问题?我还有一个警告projectspark:main5模块和main27模块之间存在循环依赖关系
这可能是根本原因?
谢谢。
rm-rf spark/
似乎现有的缓存文件正在导致冲突
可能还可以使用sbt清洁构建
rm-rf spark/
似乎现有的缓存文件正在导致冲突
可能还可以使用sbt干净构建