SparkSQL:HQL脚本在要加载到Python代码的文件中

SparkSQL:HQL脚本在要加载到Python代码的文件中,python,apache-spark,hql,pyspark,Python,Apache Spark,Hql,Pyspark,通常,文字查询字符串对于短语句就足够了,如下所示: count = sqlContext.sql("SELECT * FROM db.table").count() 然而,在某些情况下,我有一个很长的配置单元查询脚本,这太麻烦了,无法放在Python代码中 如何引用HQL文件并在Python SparkSQL中执行它?可以应用什么修复程序在集群模式下运行它?因为open在集群中不工作。可以应用什么修复程序在集群模式下运行它?因为open在集群中不起作用。 count = sqlContext.

通常,文字查询字符串对于短语句就足够了,如下所示:

count = sqlContext.sql("SELECT * FROM db.table").count()
然而,在某些情况下,我有一个很长的配置单元查询脚本,这太麻烦了,无法放在Python代码中


如何引用HQL文件并在Python SparkSQL中执行它?

可以应用什么修复程序在集群模式下运行它?因为open在集群中不工作。可以应用什么修复程序在集群模式下运行它?因为open在集群中不起作用。
count = sqlContext.sql(open("file.hql").read()).count()