Apache spark 是否可以在SparkContext初始化后更改SparkContext.sparkUser()?

Apache spark 是否可以在SparkContext初始化后更改SparkContext.sparkUser()?,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我初始化一个SparkContext来运行多个SparkSQL查询。在这个SparkContext中,我创建了一组表,每个表都必须有不同的所有者,但是Spark使用sparkUser作为表所有者 所以我想知道在SparkContext已经初始化之后是否可以更改sparkUser,通过基于此问题的简单推断,将此问题提交给Databrick,在Databrick中,他们声明您需要在集群创建期间执行此操作。否也是一个答案为什么此问题再次被否决?这是一个完全合理的问题。仅仅因为不可能做到这一点并不能使它

我初始化一个
SparkContext
来运行多个SparkSQL查询。在这个
SparkContext
中,我创建了一组表,每个表都必须有不同的所有者,但是Spark使用
sparkUser
作为表所有者


所以我想知道在
SparkContext
已经初始化之后是否可以更改
sparkUser
,通过基于此问题的简单推断,将此问题提交给Databrick,在Databrick中,他们声明您需要在集群创建期间执行此操作。

否也是一个答案为什么此问题再次被否决?这是一个完全合理的问题。仅仅因为不可能做到这一点并不能使它成为一个问题。