Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 火花卡桑德拉调谐_Scala_Apache Spark_Cassandra_Datastax - Fatal编程技术网

Scala 火花卡桑德拉调谐

Scala 火花卡桑德拉调谐,scala,apache-spark,cassandra,datastax,Scala,Apache Spark,Cassandra,Datastax,如何在spark scala代码中设置以下Cassandra写入参数 版本-DataStax Spark Cassandra连接器1.6.3 Spark版本-1.6.2 spark.cassandra.output.batch.size.rows spark.cassandra.output.concurrent.writes spark.cassandra.output.batch.size.bytes spark.cassandra.output.batch.grouping.key 谢谢,

如何在spark scala代码中设置以下Cassandra写入参数 版本-DataStax Spark Cassandra连接器1.6.3

Spark版本-1.6.2

spark.cassandra.output.batch.size.rows

spark.cassandra.output.concurrent.writes

spark.cassandra.output.batch.size.bytes

spark.cassandra.output.batch.grouping.key

谢谢,
Chandra

在DataStax Spark Cassandra Connector 1.6.X中,您可以将这些参数作为
SparkConf
的一部分进行传递

val conf = new SparkConf(true)
    .set("spark.cassandra.connection.host", "192.168.123.10")
    .set("spark.cassandra.auth.username", "cassandra")            
    .set("spark.cassandra.auth.password", "cassandra")
    .set("spark.cassandra.output.batch.size.rows", "100")            
    .set("spark.cassandra.output.concurrent.writes", "100")
    .set("spark.cassandra.output.batch.size.bytes", "100")            
    .set("spark.cassandra.output.batch.grouping.key", "partition")

val sc = new SparkContext("spark://192.168.123.10:7077", "test", conf)

有关详细信息,请参阅此部分。

在DataStax Spark Cassandra Connector 1.6.X中,您可以将这些参数作为
SparkConf
的一部分进行传递

val conf = new SparkConf(true)
    .set("spark.cassandra.connection.host", "192.168.123.10")
    .set("spark.cassandra.auth.username", "cassandra")            
    .set("spark.cassandra.auth.password", "cassandra")
    .set("spark.cassandra.output.batch.size.rows", "100")            
    .set("spark.cassandra.output.concurrent.writes", "100")
    .set("spark.cassandra.output.batch.size.bytes", "100")            
    .set("spark.cassandra.output.batch.grouping.key", "partition")

val sc = new SparkContext("spark://192.168.123.10:7077", "test", conf)

有关更多信息,请参阅此部分。

最灵活的方法是在文件中添加这些变量,例如spark.conf

spark.cassandra.output.concurrent.writes 10
等等。。。 然后在应用程序中创建spark上下文,如下所示:

val conf = new SparkConf()
val sc = new SparkContext(conf)
最后,在提交应用程序时,您可以使用以下内容指定属性文件:

spark-submit --properties-file spark.conf ...
创建Spark上下文时,Spark将自动从Spark.conf读取您的配置
这样,您就可以修改spark.conf上的属性,而无需每次重新编译代码。

最灵活的方法是在文件中添加这些变量,例如spark.conf

spark.cassandra.output.concurrent.writes 10
等等。。。 然后在应用程序中创建spark上下文,如下所示:

val conf = new SparkConf()
val sc = new SparkContext(conf)
最后,在提交应用程序时,您可以使用以下内容指定属性文件:

spark-submit --properties-file spark.conf ...
创建Spark上下文时,Spark将自动从Spark.conf读取您的配置 这样,您就可以修改spark.conf上的属性,而无需每次重新编译代码