Cassandra Spark入门(数据税务企业)
我正在尝试设置并运行以下第一个Spark查询。 在本地机器上,我们已经设置了Datastax Enterprise数据包的最新版本(目前为4.7) 我完全按照文档进行操作,我在项目中添加了最新版本的dse.jar,但错误从一开始就出现了: 下面是他们示例中的片段Cassandra Spark入门(数据税务企业),cassandra,apache-spark,datastax,datastax-enterprise,Cassandra,Apache Spark,Datastax,Datastax Enterprise,我正在尝试设置并运行以下第一个Spark查询。 在本地机器上,我们已经设置了Datastax Enterprise数据包的最新版本(目前为4.7) 我完全按照文档进行操作,我在项目中添加了最新版本的dse.jar,但错误从一开始就出现了: 下面是他们示例中的片段 SparkConf conf = DseSparkConfHelper.enrichSparkConf(new SparkConf()) .setAppName( "My application"); DseSp
SparkConf conf = DseSparkConfHelper.enrichSparkConf(new SparkConf())
.setAppName( "My application");
DseSparkContext sc = new DseSparkContext(conf);
现在看来,DseSparkContext
类只有默认的空构造函数
在这几行之后,接下来是
JavaRDD<String> cassandraRdd = CassandraJavaUtil.javaFunctions(sc)
.cassandraTable("my_keyspace", "my_table", .mapColumnTo(String.class))
.select("my_column");
JavaRDD cassandraRdd=CassandraJavaUtil.javaFunctions(sc)
.cassandraTable(“my_键空间”、“my_表”、.mapColumnTo(String.class))
。选择(“我的_栏”);
主要问题来了,CassandraJavaUtil.javaFunctions(sc)
方法只接受输入时的SparkContext
,而不接受DseSparkContext
(SparkContext
和DseSparkContext
是完全不同的类,一个不是从另一个继承的)
我假设文档不是realese版本的最新版本,如果以前有人遇到过此问题,请与我分享您的经验
谢谢大家! 文档中似乎有一个bug。那应该是
DseSparkContext.apply(conf)
因为DseSparkContext是一个Scala对象,它使用Apply函数创建新的sparkContext。在Scala中,您只需编写
DseSparkContext(conf)
,但在Java中,您必须实际调用该方法。我知道您没有访问此代码的权限,因此我将确保在文档中修复此问题,并查看是否可以获得更好的API文档 仅供参考,这仍然是文档中的一个bug。这不再需要@Zytx,我稍后会更新它(对于dse 4.7+),实际上我不确定,让我再检查一下api