Apache spark 使用spark的默认部署模式
我正在使用spark 2.4.3通过Apache spark 使用spark的默认部署模式,apache-spark,yarn,Apache Spark,Yarn,我正在使用spark 2.4.3通过--master warn启动spark作业 默认值部署模式设置为什么?是client还是cluster?正如@blackbishop所评论的,因为部署模式是client客户端。哎呀,文件里没写。谢谢
--master warn
启动spark作业
默认值
部署模式
设置为什么?是client
还是cluster
?正如@blackbishop所评论的,因为部署模式是client
客户端。哎呀,文件里没写。谢谢