Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark HDP多节点群集上的Spark with Thread client仅在同一单个节点上启动执行器_Apache Spark_Yarn_Hortonworks Data Platform_Ambari - Fatal编程技术网

Apache spark HDP多节点群集上的Spark with Thread client仅在同一单个节点上启动执行器

Apache spark HDP多节点群集上的Spark with Thread client仅在同一单个节点上启动执行器,apache-spark,yarn,hortonworks-data-platform,ambari,Apache Spark,Yarn,Hortonworks Data Platform,Ambari,我已经在EC2上安装了带有Spark和Thread的多节点HDP群集 每个节点都是数据节点 Node3是唯一的Spark客户端节点 每次我在Thread client或Thread cluster模式下运行spark作业时,它都会初始化节点3上的spark执行器。而我希望作业使用每个节点 我错过了什么 例如,我在ambari中设置了MASTER=“纱线客户机”,但这并不能解决问题 谢谢你的帮助 编辑:当我运行一个包含30个执行器的spark shell时,它会在node3上启动12个执行器,占集

我已经在EC2上安装了带有Spark和Thread的多节点HDP群集

每个节点都是数据节点

Node3是唯一的Spark客户端节点

每次我在Thread client或Thread cluster模式下运行spark作业时,它都会初始化节点3上的spark执行器。而我希望作业使用每个节点

我错过了什么

例如,我在ambari中设置了MASTER=“纱线客户机”,但这并不能解决问题

谢谢你的帮助

编辑:当我运行一个包含30个执行器的spark shell时,它会在node3上启动12个执行器,占集群的95%。所以我的猜测是,纱线集群在分配诸如spark容器/执行器之类的资源时没有考虑node1和node2


不知道我应该修改哪个配置来将node1和node2添加到集群资源中

好吧,我真的很笨

我必须将每个节点添加为纱线节点管理器。这样,我的spark作业就可以很好地分布在集群的每个节点上

对不起,这太愚蠢了