Apache spark 我应该在开始做主人和奴隶后再做工人吗?

Apache spark 我应该在开始做主人和奴隶后再做工人吗?,apache-spark,pyspark,Apache Spark,Pyspark,因此,要在独立模式下启动Spark,我应该在启动主控和从控之后在主控和从控模式下启动辅助进程吗?我假设您想要使用Spark独立群集。您必须配置集群的主节点和工作节点,然后启动它 官方数据显示这一点相当不错。 提示:对于在同一节点上测试master和worker,如果系统中尚未使用默认端口,则无需进行任何配置。只需调用sbin/start-all.sh即可启动单节点集群 您应该可以在spark独立集群UI中看到主节点/工作节点 之后,您只需使用spark提交或其他方式运行spark应用程序。tl;

因此,要在独立模式下启动Spark,我应该在启动主控和从控之后在主控和从控模式下启动辅助进程吗?

我假设您想要使用Spark独立群集。您必须配置集群的主节点和工作节点,然后启动它

官方数据显示这一点相当不错。 提示:对于在同一节点上测试master和worker,如果系统中尚未使用默认端口,则无需进行任何配置。只需调用sbin/start-all.sh即可启动单节点集群

您应该可以在spark独立集群UI中看到主节点/工作节点

之后,您只需使用spark提交或其他方式运行spark应用程序。

tl;工人博士=奴隶

您可以使用诸如Thread或Mesos之类的群集管理器来托管工作人员并使他们可以运行任务,或者在spark shell或spark Standalone中使用本地[*]模式默认值

现在,只要点燃炮弹,忘掉司机、主人、工人、奴隶和执行者。把时间花在理解动作、转换、作业、阶段、任务、洗牌上。其他人很快就会来