Apache spark Kafka和apache Spark流式集群配置
我需要在一组机器上运行一些Spark scala脚本。数据由在其中一台机器上运行的ApacheKafka生产者生成 我已经在Apache Spark的conf目录中配置了slaves.template文件,其中包含集群中每个节点的URL 我使用以下指令运行脚本:Apache spark Kafka和apache Spark流式集群配置,apache-spark,apache-kafka,spark-streaming,Apache Spark,Apache Kafka,Spark Streaming,我需要在一组机器上运行一些Spark scala脚本。数据由在其中一台机器上运行的ApacheKafka生产者生成 我已经在Apache Spark的conf目录中配置了slaves.template文件,其中包含集群中每个节点的URL 我使用以下指令运行脚本: /bin/spark submit--class com.unimi.lucaf.App/Users/lucaferari/scala-spark-script2/target/scala-spark-script-1.0.jar但它似
/bin/spark submit--class com.unimi.lucaf.App/Users/lucaferari/scala-spark-script2/target/scala-spark-script-1.0.jar
但它似乎只在主节点上运行
我怎样才能修好它
谢谢
已解决
conf
中,将slaves.template
文件重命名为slaves
,并添加每个worker的URLconf
中将spark env.sh.template
文件重命名为spark env.sh
,并添加以下行:
SPARK\u MASTER\u HOST=1.2.3.4
SPARK\u MASTER\u PORT=7077
SPARK\u MASTER\u WEBUI\u PORT=4444
SPARK\u WORKER\u WEBUI\u PORT=8081
sbin
中,我运行start master.sh
脚本sbin
I中运行start-slave.shspark://master-url:master-端口
<代码>主url和主端口
必须与spark env.sh
文件中配置的相同val sparkConf=new sparkConf().setAppName(“SparkScript”).setMaster(“spark://master-url:master-端口“
/bin/spark submit--class com.unimi.lucaf.App/home/spark1/scala-spark-script2/target/scala-spark-script-1.0.jar--master运行脚本spark://master-url:master-端口--部署模式群集
您是否尝试添加
--master <master_url>
--master
选项?如果您在spark submit中忽略此选项,它将在本地运行
您还可以查看Spark关于Spark提交选项的文档:您是否使用了
部署模式
?请分享您的Spark群集是如何准备的?使用了什么版本的Spark以及更多信息。您还可以查看