Tableau api 使用beeline或hive2 jdbc驱动程序时出现Datastax连接异常(Tableau)

Tableau api 使用beeline或hive2 jdbc驱动程序时出现Datastax连接异常(Tableau),tableau-api,datastax,datastax-enterprise,spark-cassandra-connector,Tableau Api,Datastax,Datastax Enterprise,Spark Cassandra Connector,我已经在我的开发虚拟机(Centos 7)上安装了Datastaxenterprise 2.8。安装过程顺利,单节点集群运行良好。但是,当我尝试使用beeline或hive2 jdbc驱动程序连接到集群时,会出现如下所示的错误。我的主要目标是使用Datastax企业驱动程序或Spark Sql驱动程序连接Tableau 观察到的错误是: 错误2016-04-1417:57:56915 org.apache.thrift.server.TThreadPoolServer:运行期间出错 信息处理。j

我已经在我的开发虚拟机(Centos 7)上安装了
Datastax
enterprise 2.8。安装过程顺利,单节点集群运行良好。但是,当我尝试使用beeline或hive2 jdbc驱动程序连接到集群时,会出现如下所示的错误。我的主要目标是使用Datastax企业驱动程序或Spark Sql驱动程序连接Tableau

观察到的错误是:

错误2016-04-1417:57:56915 org.apache.thrift.server.TThreadPoolServer:运行期间出错 信息处理。java.lang.RuntimeException: org.apache.thrift.transport.ttTransportException:无效状态-128 位于org.apache.thrift.transport.TSaslServerTransport$Factory.getTransport(TSaslServerTransport.java:219) ~[libthrift-0.9.3.jar:0.9.3] 位于org.apache.thrift.server.TThreadPoolServer$WorkerProcess.run(TThreadPoolServer.java:269) ~[libthrift-0.9.3.jar:0.9.3] 位于java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) [na:1.7.0_99] 位于java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) [na:1.7.0_99] 在java.lang.Thread.run(Thread.java:745)[na:1.7.0_99]处,由以下原因引起:org.apache.thrift.transport.ttTransportException:无效状态 -128 位于org.apache.thrift.transport.TSaslTransport.sendanthrowMessage(TSaslTransport.java:232) ~[libthrift-0.9.3.jar:0.9.3] 位于org.apache.thrift.transport.TSaslTransport.receiveSaslMessage(TSaslTransport.java:184) ~[libthrift-0.9.3.jar:0.9.3] 位于org.apache.thrift.transport.TSaslServerTransport.handlesalstartmessage(TSaslServerTransport.java:125) ~[libthrift-0.9.3.jar:0.9.3] 位于org.apache.thrift.transport.TSaslTransport.open(TSaslTransport.java:271) ~[libthrift-0.9.3.jar:0.9.3] 位于org.apache.thrift.transport.TSaslServerTransport.open(TSaslServerTransport.java:41) ~[libthrift-0.9.3.jar:0.9.3] 位于org.apache.thrift.transport.TSaslServerTransport$Factory.getTransport(TSaslServerTransport.java:216) ~[libthrift-0.9.3.jar:0.9.3] ... 4常见帧省略错误2016-04-14 17:58:59140 org.apache.spark.scheduler.cluster.SparkDeploySchedulerBackend: 应用程序已被终止。原因:Master删除了我们的应用程序: 杀死

我的cassandra.yml配置:

群集名称:“群集1”

令牌数:256

提示切换\u启用:真提示切换\u限制\u,单位为\u kb:1024 最大提示线程数:2

batchlog\u replay\u throttle\u(单位:kb):1024

验证者:AllowAllAuthenticator

授权人:授权人

权限\u有效性\u在\u ms中:2000

分区者:org.apache.cassandra.dht.3分区者

数据文件目录: -/var/lib/cassandra/data

commitlog_目录:/var/lib/cassandra/commitlog

磁盘\u故障\u策略:停止

提交失败策略:停止

密钥缓存大小(单位:mb):

密钥缓存保存周期:14400

行缓存大小(单位:mb):0

行缓存保存周期:0

计数器缓存大小(单位:mb):

计数器缓存保存周期:7200

保存的\u缓存\u目录:/var/lib/cassandra/saved\u缓存

提交日志同步:定期提交日志同步周期(单位:10000)

提交日志\段\大小\单位:32

种子提供程序: -类名:org.apache.cassandra.locator.SimpleSeedProvider 参数: -种子:“10.33.1.124”

并发读取:32并发写入:32并发计数器写入: 三十二

memtable_分配_类型:堆_缓冲区

索引\u摘要\u容量\u(单位:mb):

索引\u摘要\u调整大小\u间隔\u分钟:60

涓流同步:错误涓流同步间隔(kb:10240)

存储端口:7000

ssl_存储_端口:7001

收听地址:10.33.1.124

启动\u本机\u传输:真正的本机\u传输\u端口:9042

start_rpc:true

rpc_地址:10.33.1.124

rpc_端口:9160

rpc_keepalive:正确

rpc_服务器_类型:同步

节约型框架运输型尺寸单位:15

增量备份:false

压缩前的快照:false

自动快照:true

逻辑删除警告阈值:1000逻辑删除失败阈值:100000

列索引大小(kb):64

批量大小警告阈值大小(kb):64

每秒压缩量:16

压缩\u大分区\u警告\u阈值\u mb:100

sstable_抢占式_打开_间隔(单位:mb):50

读取请求超时时间单位:5000范围请求超时时间单位:10000 写入请求超时时间单位:2000计数器写入请求超时时间单位: 5000 cas争用\u超时\u毫秒:1000 截断请求超时时间:60000请求超时时间:10000

交叉节点超时:false

端点_snitch:com.datastax.bdp.snitch.DseSimpleSnitch

动态\u飞贼\u更新\u间隔\u毫秒:100 动态飞贼重置间隔时间:600000毫秒 动态窃贼不良阈值:0.1

请求调度程序:org.apache.cassandra.scheduler.NoScheduler

服务器加密选项: 节间加密:无 keystore:resources/dse/conf/.keystore 密钥库密码:cassandra 信任库:resources/dse/conf/.truststore 信任库密码:cassandra

客户端加密选项: 已启用:false 可选:false keystore:resources/dse/conf/.keystore 密钥库密码:cassandra

节间压缩:dc

inter_dc_tcp_节点延迟:false

并发计数器写入:32

计数器缓存大小(单位:mb):

计数器缓存保存周期:7200

memtable_分配_类型:堆_缓冲区

索引汇总_
dse spark-sql-thriftserver
/Users/russellspitzer/dse/bin/dse:
usage: dse spark-sql-thriftserver <command> [Spark SQL Thriftserver Options]

Available commands:
  start                             Start Spark SQL Thriftserver
  stop                              Stops Spark SQL Thriftserver