Java Apache Beam作业在通过spark submit提交时挂起

Java Apache Beam作业在通过spark submit提交时挂起,java,apache-spark,apache-beam,spark-submit,Java,Apache Spark,Apache Beam,Spark Submit,我只是尝试在本地spark设置中执行Apache Beam示例代码。我生成了源代码并构建了中提到的包。使用spark submit提交jar,如下所示 $ ~/spark/bin/spark-submit --class org.apache.beam.examples.WordCount --master local target/word-count-beam-0.1.jar --runner=SparkRunner --inputFile=pom.xml --output=counts

我只是尝试在本地spark设置中执行Apache Beam示例代码。我生成了源代码并构建了中提到的包。使用spark submit提交jar,如下所示

$ ~/spark/bin/spark-submit --class org.apache.beam.examples.WordCount --master local target/word-count-beam-0.1.jar --runner=SparkRunner --inputFile=pom.xml --output=counts
代码被提交并开始执行。但是在评估parmulido(ExtractWords)的步骤
中遇到了困难。下面是提交作业后的日志

我找不到任何错误消息。有人能帮我找出问题所在吗

编辑:我还尝试使用下面的命令

~/spark/bin/spark-submit --class org.apache.beam.examples.WordCount --master spark://Quartics-MacBook-Pro.local:7077 target/word-count-beam-0.1.jar --runner=SparkRunner --inputFile=pom.xml --output=counts
作业现在卡在
INFO BlockManagerMasterEndpoint:使用366.3 MB RAM注册块管理器192.168.0.2:59049,BlockManagerId(0192.168.0.259049,无)
。附上下面Spark History&Dashboard的屏幕截图。Dashboard显示作业正在运行,但没有任何进展


这只是版本问题。我能够在Spark 1.6.3中运行作业。感谢所有投票否决这个问题的人,没有任何解释

选民们,有什么原因吗?