java.io.IOException:无法在127.0.0.1:9160打开到Cassandra的thrift连接

java.io.IOException:无法在127.0.0.1:9160打开到Cassandra的thrift连接,cassandra,apache-spark,Cassandra,Apache Spark,在调用Dataframe.show之类的Dataframe上的任何方法时,我都会遇到以下错误。当我调用这个prom tomcat 7时,就会发生这种情况。从测试用例来看,它在我的工作中 异常跟踪: 属性:键空间\名称、持久\写入、策略\类、策略\选项 2015-09-27 17:21:52[http-apr-8080-exec-2]INFO c.d.d.c.Cluster-新增卡桑德拉主机/127.0.0.1:9042 2015-09-27 17:21:52[http-apr-8080-exec

在调用Dataframe.show之类的Dataframe上的任何方法时,我都会遇到以下错误。当我调用这个prom tomcat 7时,就会发生这种情况。从测试用例来看,它在我的工作中

异常跟踪: 属性:键空间\名称、持久\写入、策略\类、策略\选项 2015-09-27 17:21:52[http-apr-8080-exec-2]INFO c.d.d.c.Cluster-新增卡桑德拉主机/127.0.0.1:9042 2015-09-27 17:21:52[http-apr-8080-exec-2]信息c.d.s.c.c.Cassandrac连接器-连接到Cassandra群集:测试群集 2015-09-27 17:21:52[http-apr-8080-exec-2]错误c.s.j.s.c.ContainerResponse-MappableContainerException中包含的异常无法映射到响应,重新引发到http容器 java.io.IOException:无法在127.0.0.1:9160打开到Cassandra的thrift连接 在com.datastax.spark.connector.cql.CassandraConnector.createThriftClientCassandraConnector.scala:139~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] 在com.datastax.spark.connector.cql.CassandraConnector.createThriftClientCassandraConnector.scala:145~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] 在com.datasax.spark.connector.cql.CassandraConnector.withCassandraClientDoCassandraConnector.scala:151~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] 在com.datastax.spark.connector.rdd.partitioner.cassandrardpartitioner.partitionscassandradpartitioner.scala:131~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] 在com.datastax.spark.connector.rdd.CassandraTableScanRDD.getPartitionsCassandraTableScanRDD.scala:120~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] 在org.apache.spark.rdd.rdd$$anonfun$partitions$2.applyRDD.scala:219~[spark-core_2.10-1.3.1.jar:1.3.1] 在org.apache.spark.rdd.rdd$$anonfun$partitions$2.applyRDD.scala:217~[spark-core_2.10-1.3.1.jar:1.3.1] scala:120~[scala-library-2.10.5.jar:na] 在org.apache.spark.rdd.rdd.partitionsRDD.scala:217~[spark-core_2.10-1.3.1.jar:1.3.1] 在org.apache.spark.rdd.MapPartitionsRDD.getPartitionsMapPartitionsRDD.scala:32~[spark-core_2.10-1.3.1.jar:1.3.1] 在org.apache.spark.rdd.rdd$$anonfun$partitions$2.applyRDD.scala:219~[spark-core_2.10-1.3.1.jar:1.3.1] 在org.apache.spark.rdd.rdd$$anonfun$partitions$2.applyRDD.scala:217~[spark-core_2.10-1.3.1.jar:1.3.1]

附加跟踪: 原因:java.lang.NoSuchMethodError:org.apache.cassandra.thrift.TFramedTransportFactory.openTransportLjava/lang/String;ILorg/apache/thrift/transport/tttransport; 在com.datastax.spark.connector.cql.DefaultConnectionFactory$.createThriftClientCassandraConnectionFactory.scala:41~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] 在com.datastax.spark.connector.cql.CassandraConnector.createThriftClientCassandraConnector.scala:134~[spark-cassandra-connector_2.10-1.3.0-M1.jar:1.3.0-M1] ... 103省略公共帧
2015-09-27 17:21:52[http-apr-8080-exec-2]调试c.p.w.j.WebApplicationWrapper-

看起来tomcat中thrift的版本不对?我正在使用apache-tomcat-7.0.64。如何在tomcat上检查thrift?