Apache spark 如何在Spark SQL中采用Ranger策略?
我正在HDP3.1.4上使用Spark 3.0.1。除了Spark SQL不能遵守Ranger标准SQL策略外,其他一切都运行良好 在过去的几天里,我尝试了从社区中找到的解决方案,hive warehouse connector和spark authorizer以及spark llap。 不幸的是我不能解决它。代码似乎没有维护,最新版本不支持Spark 3.0。我看到很多人也在这个问题上挣扎 是否建议Spark SQL采用Ranger列/行级权限策略?欢迎提出任何意见。多谢各位Apache spark 如何在Spark SQL中采用Ranger策略?,apache-spark,hive,apache-spark-sql,apache-ranger,Apache Spark,Hive,Apache Spark Sql,Apache Ranger,我正在HDP3.1.4上使用Spark 3.0.1。除了Spark SQL不能遵守Ranger标准SQL策略外,其他一切都运行良好 在过去的几天里,我尝试了从社区中找到的解决方案,hive warehouse connector和spark authorizer以及spark llap。 不幸的是我不能解决它。代码似乎没有维护,最新版本不支持Spark 3.0。我看到很多人也在这个问题上挣扎 是否建议Spark SQL采用Ranger列/行级权限策略?欢迎提出任何意见。多谢各位 hive war