Apache spark 在没有Spark submit但使用java的纱线上运行Spark
在HDP2.4 Hadoop集群中,使用Thread,我想知道是否可以不使用Apache spark 在没有Spark submit但使用java的纱线上运行Spark,apache-spark,yarn,Apache Spark,Yarn,在HDP2.4 Hadoop集群中,使用Thread,我想知道是否可以不使用Spark submit--master=Thread程序运行Java Apache Spark程序,而直接使用Java?(或者如果这真的是一种糟糕的做法) 我的用例是有一个Java守护进程,它带来了一个HTTP API来在不同的HDP集群上执行Spark作业。看看Spark submit的源代码,它没有做任何花哨的事情,所以如果您想使用它,您可以避免使用它:@RyanS AFAIK这不完全正确。有一些已知的bug(你必
Spark submit--master=Thread
程序运行Java Apache Spark程序,而直接使用Java?(或者如果这真的是一种糟糕的做法)
我的用例是有一个Java守护进程,它带来了一个HTTP API来在不同的HDP集群上执行Spark作业。看看Spark submit的源代码,它没有做任何花哨的事情,所以如果您想使用它,您可以避免使用它:@RyanS AFAIK这不完全正确。有一些已知的bug(你必须搜索JIRA,因为我不记得具体的问题),它们与在Spark submit之外运行Spark有关。据我记忆所及,这些都是关闭的,因为没有问题(注意-不支持)。试着想想spark launcher,看看你的问题是否会得到解决。