Apache spark 具有特权容器的kubernetes上的spark3.0

Apache spark 具有特权容器的kubernetes上的spark3.0,apache-spark,docker-privileged,Apache Spark,Docker Privileged,如何使用“privileged=true”启动容器,在spark2.4之前,我们可以在SparkPod.scala中添加securityContext.withPrivileged(true)来设置它,但spark3.0似乎不再尊重这一点。有什么想法吗?多谢各位

如何使用“privileged=true”启动容器,在spark2.4之前,我们可以在SparkPod.scala中添加securityContext.withPrivileged(true)来设置它,但spark3.0似乎不再尊重这一点。有什么想法吗?多谢各位