Apache spark 在HDInsight spark群集上提交spark作业时出现连接拒绝错误
我正在提交HDInsight spark cluster上的spark作业。提交作业时,会引发以下错误: 17/05/01 13:55:14警告客户端:无法连接到服务器: hn0 testsp.a0yxittmcfkubfqkfg1ld1vobc.bx.internal.cloudapp.net/172.18.0.28:8050: 重试失败,因为超过了允许的最大重试次数:0 java.net.ConnectException:连接被拒绝 这里172.18.0.28是spark头节点IP地址 以下是带有输入参数的命令:Apache spark 在HDInsight spark群集上提交spark作业时出现连接拒绝错误,apache-spark,azure-hdinsight,Apache Spark,Azure Hdinsight,我正在提交HDInsight spark cluster上的spark作业。提交作业时,会引发以下错误: 17/05/01 13:55:14警告客户端:无法连接到服务器: hn0 testsp.a0yxittmcfkubfqkfg1ld1vobc.bx.internal.cloudapp.net/172.18.0.28:8050: 重试失败,因为超过了允许的最大重试次数:0 java.net.ConnectException:连接被拒绝 这里172.18.0.28是spark头节点IP地址 以下
spark-submit --class com.org.stream.spark.CustomKafkaStreamWriter \
--master yarn \
--deploy-mode cluster \
--driver-memory 4g \
--executor-memory 2g \
--executor-cores 1 \
--queue thequeue \
target/sampleproject-SNAPSHOT.jar \
172.18.0.39:2181 172.18.0.35:9092
有人能帮忙解决问题吗?据我所知,您无法直接从外部访问Spark
您可以登录ssh节点,也可以通过提交作业。这可能是更好的解决方案,因为您可以独立于集群提交作业。您是否在headnode上提交此作业?