Apache spark 在ApacheSpark中,如何使任务始终在同一台机器上执行?

Apache spark 在ApacheSpark中,如何使任务始终在同一台机器上执行?,apache-spark,rdd,distributed-computing,low-latency,cache-locality,Apache Spark,Rdd,Distributed Computing,Low Latency,Cache Locality,在其最简单的形式中,RDD只是链式计算的占位符,可以任意安排在任何机器上执行: val src=sc.parallelize(0到1000) val rdd=src.mapPartitions{itr=> 迭代器(SparkEnv.get.executorId) } 为了 迭代器(SparkEnv.get.executorId) } 为了

在其最简单的形式中,RDD只是链式计算的占位符,可以任意安排在任何机器上执行:

val src=sc.parallelize(0到1000)
val rdd=src.mapPartitions{itr=>
迭代器(SparkEnv.get.executorId)
}
为了
迭代器(SparkEnv.get.executorId)
}
为了