Apache spark 如何创建定制的ApacheSpark调度器?
我有一个p2p网状网络节点。它有自己的平衡,并且给定一个任务Apache spark 如何创建定制的ApacheSpark调度器?,apache-spark,pyspark,scalability,scheduler,distributed-computing,Apache Spark,Pyspark,Scalability,Scheduler,Distributed Computing,我有一个p2p网状网络节点。它有自己的平衡,并且给定一个任务T可以可靠地执行它(如果一个节点失败,另一个节点将继续)。我的mesh网络有Java和Python API。我想知道使Spark调用成为午餐任务的API需要哪些步骤 看看现有调度器(纱线和meso)是如何实现的 为您的系统实现调度程序 将您的更改贡献给ApacheSpark项目 哦,天哪,这是一个非常宽泛的问题,但我同意丹尼尔的观点。如果您确实想这样做,您可以先从以下内容开始: ,其中陈述了如下内容: 作为Spark中的调度器后端,假定
T
可以可靠地执行它(如果一个节点失败,另一个节点将继续)。我的mesh网络有Java和Python API。我想知道使Spark调用成为午餐任务的API需要哪些步骤
哦,天哪,这是一个非常宽泛的问题,但我同意丹尼尔的观点。如果您确实想这样做,您可以先从以下内容开始:
然后,你必须会见游戏中的最后一位老板,Spark的调度程序GitHub,并获得这种感觉。希望所有这些都足以让您开始学习!:)