Apache spark 是否可以在SparkContext初始化后更改SparkContext.sparkUser()?
我初始化一个Apache spark 是否可以在SparkContext初始化后更改SparkContext.sparkUser()?,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我初始化一个SparkContext来运行多个SparkSQL查询。在这个SparkContext中,我创建了一组表,每个表都必须有不同的所有者,但是Spark使用sparkUser作为表所有者 所以我想知道在SparkContext已经初始化之后是否可以更改sparkUser,通过基于此问题的简单推断,将此问题提交给Databrick,在Databrick中,他们声明您需要在集群创建期间执行此操作。否也是一个答案为什么此问题再次被否决?这是一个完全合理的问题。仅仅因为不可能做到这一点并不能使它
SparkContext
来运行多个SparkSQL查询。在这个SparkContext
中,我创建了一组表,每个表都必须有不同的所有者,但是Spark使用sparkUser
作为表所有者
所以我想知道在
SparkContext
已经初始化之后是否可以更改sparkUser
,通过基于此问题的简单推断,将此问题提交给Databrick,在Databrick中,他们声明您需要在集群创建期间执行此操作。否也是一个答案为什么此问题再次被否决?这是一个完全合理的问题。仅仅因为不可能做到这一点并不能使它成为一个问题。