Apache spark 如何使用spark sql运行hql脚本?

Apache spark 如何使用spark sql运行hql脚本?,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我有配置单元查询脚本,希望在unix中以命令行模式运行,是否有任何选项可以在命令行模式下运行它?因为我使用的是Cloudera Hadoop(5.10.x),根据CDH 5.10.x文档,它不受支持。 下面是相同的链接。 cloudera.com/documentation/enterprise/5-10-x/topics/spark.html能否请您进一步详细说明您想要实现的目标以及迄今为止所做的工作?我想编写shell作业,它将从属性文件中获取查询并在Hive、Impala和SparkSQL

我有配置单元查询脚本,希望在unix中以命令行模式运行,是否有任何选项可以在命令行模式下运行它?

因为我使用的是Cloudera Hadoop(5.10.x),根据CDH 5.10.x文档,它不受支持。 下面是相同的链接。
cloudera.com/documentation/enterprise/5-10-x/topics/spark.html

能否请您进一步详细说明您想要实现的目标以及迄今为止所做的工作?我想编写shell作业,它将从属性文件中获取查询并在Hive、Impala和SparkSQL上运行。在这里,我试图为Hive、Impala和Spark中的查询创建性能矩阵?到目前为止,我已经编写了shell作业,它将从属性文件中获取查询并运行到Hive和Impala,这与我希望在Spark SQL上运行的查询相同。如果您有任何想法,欢迎帮助。我正在使用cloudera hadoop CDH 5.10.x,发现该CDH版本不支持它的文档。下面是相同的链接。