Ubuntu Hadoop找不到cassandra CqlOutputFormat类

Ubuntu Hadoop找不到cassandra CqlOutputFormat类,ubuntu,hadoop,cassandra,cql,Ubuntu,Hadoop,Cassandra,Cql,我在运行hadoop作业时遇到了麻烦。我收到以下异常: java.lang.RuntimeException:java.lang.ClassNotFoundException:org.apache.cassandra.hadoop.cql3.CqlOutputFormat 位于org.apache.hadoop.conf.Configuration.getClass(Configuration.java:857) 位于org.apache.hadoop.mapreduce.JobContext.

我在运行hadoop作业时遇到了麻烦。我收到以下异常:

java.lang.RuntimeException:java.lang.ClassNotFoundException:org.apache.cassandra.hadoop.cql3.CqlOutputFormat 位于org.apache.hadoop.conf.Configuration.getClass(Configuration.java:857) 位于org.apache.hadoop.mapreduce.JobContext.getOutputFormatClass(JobContext.java:235) 位于org.apache.hadoop.mapred.Task.initialize(Task.java:513) 位于org.apache.hadoop.mapred.MapTask.run(MapTask.java:347) 位于org.apache.hadoop.mapred.Child$4.run(Child.java:255) 位于java.security.AccessController.doPrivileged(本机方法) 位于javax.security.auth.Subject.doAs(Subject.java:415) 位于org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190) 位于org.apache.hadoop.mapred.Child.main(Child.java:249) 原因:java.lang.ClassNotFoundException:org.apache.cassandra.hadoop.cql3.CqlOutputFormat 在java.net.URLClassLoader$1.run(URLClassLoader.java:366) 在java.net.URLClassLoader$1.run(URLClassLoader.java:355) 位于java.security.AccessController.doPrivileged(本机方法) 位于java.net.URLClassLoader.findClass(URLClassLoader.java:354) 位于java.lang.ClassLoader.loadClass(ClassLoader.java:425) 位于sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308) 位于java.lang.ClassLoader.loadClass(ClassLoader.java:358) 位于java.lang.Class.forName0(本机方法) 位于java.lang.Class.forName(Class.java:270) 位于org.apache.hadoop.conf.Configuration.getClassByName(Configuration.java:810) 位于org.apache.hadoop.conf.Configuration.getClass(Configuration.java:855) ... 8个以上

我肯定在$HADOOP_类路径中有cassandra JAR,它们正在被找到(我知道这一点,因为如果我将它们移出类路径,那么我会得到一个NoClassDefFoundError异常)

环境是: Ubuntu 12.10, Hadoop 1.2.1,
Cassandra 1.2.13

您必须将JAR添加到DistributedCache中,以便映射程序在运行时可以使用这些JAR

                DistributedCache.addArchiveToClassPath(new Path(path.toUri()
                    .getPath()), job);

任何不是hadoop发行版一部分的自定义JAR,如果它们没有包含在每个节点的hadoop类路径中,就必须以这种方式添加。

因此,更改类路径后不重新启动所有hadoop deamons就很简单了。啊