Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala Spark Spark KPI示例_Scala_Apache Spark_Parallel Processing - Fatal编程技术网

Scala Spark Spark KPI示例

Scala Spark Spark KPI示例,scala,apache-spark,parallel-processing,Scala,Apache Spark,Parallel Processing,在Spark分发附带的SparkPi示例中,RDD上的reduce是并行执行的(每个片段计算其总数),还是不并行执行 val count: Int = spark.sparkContext.parallelize(1 until n, slices).map { i => val x = random * 2 - 1 val y = random * 2 - 1 if (x*x + y*y < 1) 1 else 0 }.reduce(_ + _) val count:

在Spark分发附带的SparkPi示例中,RDD上的
reduce
是并行执行的(每个片段计算其总数),还是不并行执行

val count: Int = spark.sparkContext.parallelize(1 until n, slices).map { i =>
  val x = random * 2 - 1
  val y = random * 2 - 1
  if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
val count:Int=spark.sparkContext.parallelize(1到n个切片)。map{i=>
val x=随机*2-1
val y=随机*2-1
如果(x*x+y*y<1)1,则为0
}.减少(u+u)
是的,是的

默认情况下,此示例将在两个切片上操作。因此,您的收藏将分为两部分。然后Spark将在每个分区上并行执行
map
转换和
reduce
操作。最后,Spark将把单个结果合并到最终值中

如果使用默认配置执行示例,则可以在控制台输出中观察2个任务

是的

默认情况下,此示例将在两个切片上操作。因此,您的收藏将分为两部分。然后Spark将在每个分区上并行执行
map
转换和
reduce
操作。最后,Spark将把单个结果合并到最终值中

如果使用默认配置执行示例,则可以在控制台输出中观察2个任务

酷!因此,无需“聪明”并发送闭包来计算每个执行器的小计,而不是使用
reduce
。我喜欢它,只要相信火花:-)酷!因此,无需“聪明”并发送闭包来计算每个执行器的小计,而不是使用
reduce
。我喜欢,只要相信Spark:-)