Java 使用Mongo Hadoop连接器设置Apache Spark时出现的问题
我是Apache Spark和Hadoop的新手。我在使用mongo hadoop连接器时遇到问题 除了安装jdk-7、ApacheMaven、Scala和ApacheSpark之外,我没有做过其他任何事情 这就是我的。bashrcJava 使用Mongo Hadoop连接器设置Apache Spark时出现的问题,java,mongodb,maven,hadoop,apache-spark,Java,Mongodb,Maven,Hadoop,Apache Spark,我是Apache Spark和Hadoop的新手。我在使用mongo hadoop连接器时遇到问题 除了安装jdk-7、ApacheMaven、Scala和ApacheSpark之外,我没有做过其他任何事情 这就是我的。bashrc JAVA_HOME='/usr/java/jdk1.7.0_75' export PATH=$PATH:/usr/local/apache-maven/apache-maven-3.2.5/bin/ MAVEN_OPTS="-Xmx2g -XX:MaxPermSiz
JAVA_HOME='/usr/java/jdk1.7.0_75'
export PATH=$PATH:/usr/local/apache-maven/apache-maven-3.2.5/bin/
MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
export PATH=$PATH:/usr/local/spark/sbin/
export SCALA_HOME='/usr/share/java/scala'
我使用此命令安装ApacheSpark。Spark shell工作正常,我能够使用SparkContext运行基本示例
mvn -Pyarn -Phadoop-2.4 -Phive -Phive-thriftserver -Dhadoop.version=2.4.0 -DskipTests clean package
这个安装Mongo Hadoop连接器的命令(在我的主目录上)也是我遵循的
现在我每次尝试启动火花壳时都会出现这个错误
Successfully started service 'HTTP file server' on port 36427.
java.lang.NoClassDefFoundError: javax/servlet/FilterRegistration
没有sparkContext实例。我想知道如何解决这个问题,以及是否可以运行类似于此示例的代码
从spark shell还是我必须用graddle和spark如何调用它来构建它?只是一个随机注释,但您使用的是1.3.3-SNAPSHOT jar,但安装时使用了
-Dversion=1.2.1-SNAPSHOT
。那似乎是错的。谢谢。我会试试看,然后再给你回复。是的,这个把戏做得很好。。。。
Successfully started service 'HTTP file server' on port 36427.
java.lang.NoClassDefFoundError: javax/servlet/FilterRegistration