Apache spark 如何在独立群集上使用作业名称终止Spark作业
如何在独立群集上使用作业名称终止Spark作业?如何在沙盒上列出Spark作业ID?是否有类似于Apache spark 如何在独立群集上使用作业名称终止Spark作业,apache-spark,sandbox,hdp,Apache Spark,Sandbox,Hdp,如何在独立群集上使用作业名称终止Spark作业?如何在沙盒上列出Spark作业ID?是否有类似于纱线应用程序-list的命令?变量=$1 variable=$1 jar=$2 ps -ef | grep -w ${variable} | grep -w 'org.apache.spark.deploy.SparkSubmit' | grep -w ${jar}>t.txt sed -n 1p t.txt>t1.txt awk '{print $3}' t1.txt >kil
纱线应用程序-list
的命令?变量=$1
variable=$1
jar=$2
ps -ef | grep -w ${variable} | grep -w 'org.apache.spark.deploy.SparkSubmit' | grep -w ${jar}>t.txt
sed -n 1p t.txt>t1.txt
awk '{print $3}' t1.txt >kill.txt
while read x;do
kill -9 $x
echo Process Id $x and Application "$variable" killed
done <kill.txt
罐子=2美元
ps-ef | grep-w${variable}| grep-w'org.apache.spark.deploy.SparkSubmit'| grep-w${jar}>t.txt
sed-n 1p t.txt>t1.txt
awk“{print$3}”t1.txt>kill.txt
读x时;做
杀戮-9美元x
回显进程Id$x和应用程序“$variable”已终止
是否要通过命令行执行此操作?你可以用浏览器连接到主机的8080端口…问题解决了。通过shellSo回答您自己的问题,并为此获得积分;)