Apache spark 关闭终端时,如何在服务器上使用python运行dse spark应用程序?

Apache spark 关闭终端时,如何在服务器上使用python运行dse spark应用程序?,apache-spark,pyspark,datastax-enterprise,Apache Spark,Pyspark,Datastax Enterprise,这是我的提交命令,我不知道如何在终端窗口关闭的情况下在后台运行它: dse spark提交--主spark://master:7077 --executor memory 2G——total executor cores 2——packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1——jars/spark-streaming-kafka_2.10-1.4.1.jar/sparktest.py您有几个选项,第一种方法是使用像or这样的终

这是我的提交命令,我不知道如何在终端窗口关闭的情况下在后台运行它:


dse spark提交--主spark://master:7077 --executor memory 2G——total executor cores 2——packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1——jars/spark-streaming-kafka_2.10-1.4.1.jar/sparktest.py

您有几个选项,第一种方法是使用像or这样的终端会话管理器,当您断开连接时,它将使终端保持活动状态


另一种方法是在命令之前使用

尝试在命令末尾添加“&”:

spark-submit --master spark://master:7077 --executor-memory 2G --total-executor-cores 2 --packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1 --jars /spark-streaming-kafka_2.10-1.4.1.jar /sparktest.py &

nohup不起作用这是错误:错误:独立集群上的python应用程序当前不支持集群部署模式。