Apache spark spark cluster模式下的未知后异常

Apache spark spark cluster模式下的未知后异常,apache-spark,kubernetes,Apache Spark,Kubernetes,我正在kubernetes运行一个独立的spark群集(1个主群集和5个工作群集),我正在群集模式下进行spark提交。 但是我越来越不清楚了 原因:java.io.IOException:无法连接到 sw-care-alice-staging-f4c869cc-4tkpb:46105原因:java.net.UnknownHostException:sw-care-alice-staging-f4c869cc-4tkpb 这是我的spark提交命令 spark-2.4.3-bin-hadoop2

我正在kubernetes运行一个独立的spark群集(1个主群集和5个工作群集),我正在群集模式下进行spark提交。 但是我越来越不清楚了

原因:java.io.IOException:无法连接到 sw-care-alice-staging-f4c869cc-4tkpb:46105原因:java.net.UnknownHostException:sw-care-alice-staging-f4c869cc-4tkpb

这是我的spark提交命令

spark-2.4.3-bin-hadoop2.7/bin/spark-submit --class LogParser.LogBundleConfigFetcher --conf spark.submit.deployMode=cluster --conf spark.network.timeout=300 --conf spark.scheduler.mode=FAIR --conf spark.master=spark://sm-care-alice-staging:7077 --conf spark.executor.cores=5 --conf spark.executor.memory=20g --conf spark.dynamicAllocation.maxExecutors=3 --conf spark.driver.memory=16g --conf spark.dynamicAllocation.enabled=false --conf spark.cores.max=15 http://minio.platform.svc.cluster.local:9000/alice-care/staging/config/spark/aliceparser.jar 
注意:它在客户端模式下工作得非常好。但是在集群模式下,如果我在/etc/host中手动添加Spark workers的主机条目,它就可以正常工作。 我想避免手动添加主机。请建议任何相同的方法