带有Scala插件、Maven和Spark的Eclipse项目
我有EclipseKepler,我安装了Maven和Scala插件。我创建了一个新的Maven项目并添加了依赖项 groupId:org.apache.spark artifactId:spark-core_2.10 版本:1.1.0 根据目前的文档,一切正常,Scala 2.10的JAR也被添加到项目中。然后,我将“Scala性质”添加到项目中,这将添加Scala 2.11,最后出现以下错误 在构建路径中找到多个scala库(C:/Eclipse/Eclipse-jee-kepler-SR2-win32-x86_64/plugins/org.scala-lang.scala-library_2.11.2.v20140721-095018-73fb460c1c.jar,C:/Users/fff/.m2/repository/org/scala-lang/scala-library/2.10.4/scala-library-2.10.4.jar)。 至少有一个版本不兼容。 请更新项目生成路径,使其仅包含兼容的scala库 可以同时使用Spark(来自Maven)和Scala IDE插件吗?关于如何解决这个问题有什么想法吗带有Scala插件、Maven和Spark的Eclipse项目,eclipse,scala,maven,apache-spark,Eclipse,Scala,Maven,Apache Spark,我有EclipseKepler,我安装了Maven和Scala插件。我创建了一个新的Maven项目并添加了依赖项 groupId:org.apache.spark artifactId:spark-core_2.10 版本:1.1.0 根据目前的文档,一切正常,Scala 2.10的JAR也被添加到项目中。然后,我将“Scala性质”添加到项目中,这将添加Scala 2.11,最后出现以下错误 在构建路径中找到多个scala库(C:/Eclipse/Eclipse-jee-kepler-SR2-
谢谢你的帮助。简言之,是的,这是可能的 Spark目前正在使用Scala 2.10,最新的Scala IDE是针对2.10和2.11的“交叉发布”。您需要选择基于2.10的版本,即3.0.3
但是,下一个主要版本4.0(处于候选发布模式)支持多版本。您可以创建Scala项目并选择要使用的Scala版本(2.10或2.11)。如果你愿意,你可以试一试。简言之,是的,这是可能的 Spark目前正在使用Scala 2.10,最新的Scala IDE是针对2.10和2.11的“交叉发布”。您需要选择基于2.10的版本,即3.0.3
但是,下一个主要版本4.0(处于候选发布模式)支持多版本。您可以创建Scala项目并选择要使用的Scala版本(2.10或2.11)。如果你愿意,你可以试一试。简言之,是的,这是可能的 Spark目前正在使用Scala 2.10,最新的Scala IDE是针对2.10和2.11的“交叉发布”。您需要选择基于2.10的版本,即3.0.3
但是,下一个主要版本4.0(处于候选发布模式)支持多版本。您可以创建Scala项目并选择要使用的Scala版本(2.10或2.11)。如果你愿意,你可以试一试。简言之,是的,这是可能的 Spark目前正在使用Scala 2.10,最新的Scala IDE是针对2.10和2.11的“交叉发布”。您需要选择基于2.10的版本,即3.0.3 但是,下一个主要版本4.0(处于候选发布模式)支持多版本。您可以创建Scala项目并选择要使用的Scala版本(2.10或2.11)。如果您愿意,您可以尝试一下。如果有人在这里寻找相同的东西时绊倒了: 我最近创建了Maven原型,用于用Scala 2.10.4项目引导新的Spark 1.3.0。 请按照此处的说明操作: 对于IntelliJ IDEA,首先从命令行生成项目,然后导入IDE。如果有人在搜索同一内容时在此处出错: 我最近创建了Maven原型,用于用Scala 2.10.4项目引导新的Spark 1.3.0。 请按照此处的说明操作: 对于IntelliJ IDEA,首先从命令行生成项目,然后导入IDE。如果有人在搜索同一内容时在此处出错: 我最近创建了Maven原型,用于用Scala 2.10.4项目引导新的Spark 1.3.0。 请按照此处的说明操作: 对于IntelliJ IDEA,首先从命令行生成项目,然后导入IDE。如果有人在搜索同一内容时在此处出错: 我最近创建了Maven原型,用于用Scala 2.10.4项目引导新的Spark 1.3.0。 请按照此处的说明操作:
对于IntelliJ IDEA,首先从命令行生成项目,然后导入IDE。您已经安装了Scala IDE插件,但只有在项目中包含Scala类时,项目的Scala性质才有用。
然而,Spark和Scala是一起工作的。确保使用兼容版本。您可以在计算机上安装,然后使用兼容的spark maven依赖项。您已经安装了Scala Ide插件,但只有在项目中包含Scala类时,项目的Scala性质才有用。
然而,Spark和Scala是一起工作的。确保使用兼容版本。您可以在计算机上安装,然后使用兼容的spark maven依赖项。您已经安装了Scala Ide插件,但只有在项目中包含Scala类时,项目的Scala性质才有用。
然而,Spark和Scala是一起工作的。确保使用兼容版本。您可以在计算机上安装,然后使用兼容的spark maven依赖项。您已经安装了Scala Ide插件,但只有在项目中包含Scala类时,项目的Scala性质才有用。
然而,Spark和Scala是一起工作的。确保使用兼容版本。您可以在计算机上安装,然后使用兼容的spark maven依赖项。是的,您可以。。使用下面我提供的pom
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.spark-scala</groupId>
<artifactId>spark-scala</artifactId>
<version>0.0.1-SNAPSHOT</version>
<name>${project.artifactId}</name>
<description>Spark in Scala</description>
<inceptionYear>2010</inceptionYear>
<properties>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
<encoding>UTF-8</encoding>
<scala.tools.version>2.10</scala.tools.version>
<!-- Put the Scala version of the cluster -->
<scala.version>2.10.4</scala.version>
</properties>
<!-- repository to add org.apache.spark -->
<repositories>
<repository>
<id>cloudera-repo-releases</id>
<url>https://repository.cloudera.com/artifactory/repo/</url>
</repository>
</repositories>
<build>
<sourceDirectory>src/main/scala</sourceDirectory>
<testSourceDirectory>src/test/scala</testSourceDirectory>
<plugins>
<plugin>
<!-- see http://davidb.github.com/scala-maven-plugin -->
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<version>3.2.1</version>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-surefire-plugin</artifactId>
<version>2.13</version>
<configuration>
<useFile>false</useFile>
<disableXmlReport>true</disableXmlReport>
<includes>
<include>**/*Test.*</include>
<include>**/*Suite.*</include>
</includes>
</configuration>
</plugin>
<!-- "package" command plugin -->
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<version>2.4.1</version>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
</configuration>
<executions>
<execution>
<id>make-assembly</id>
<phase>package</phase>
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
<plugin>
<groupId>org.scala-tools</groupId>
<artifactId>maven-scala-plugin</artifactId>
</plugin>
</plugins>
</build>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
</project>
4.0.0
com.spark-scala
火花鳞片
0.0.1-快照
${project.artifactId}
斯卡拉星火
2010
1.8
1.8
UTF-8
2.10
2.10.4
cloudera回购协议发布
https://repository.cloudera.com/artifactory/repo/
src/main/scala
src/test/scala
net.alchim31.maven
scala maven插件
3.2.1
org.apache.maven.plugins
maven surefire插件
2.13
假的