Apache spark 如果Spark SQL支持HQL,比如“插入覆盖目录”?

Apache spark 如果Spark SQL支持HQL,比如“插入覆盖目录”?,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我想问一下Spark SQL是否支持HQL,比如“插入覆盖目录”。 或者是否有其他方法可以将结果集(从spark sql jdbc服务器)直接保存到HDFS?此问题有一个jira尚未解决,即jira链接。但你可以这样做: JavaSchemaRDD employeeSchemaRDD = context.sql("SELECT * FROM employee"); JavaRDD<String> strRDD=employeeSchemaRDD.map(new Fu

我想问一下Spark SQL是否支持HQL,比如“插入覆盖目录”。
或者是否有其他方法可以将结果集(从spark sql jdbc服务器)直接保存到HDFS?

此问题有一个jira尚未解决,即jira链接。但你可以这样做:

    JavaSchemaRDD employeeSchemaRDD = context.sql("SELECT * FROM employee");

    JavaRDD<String> strRDD=employeeSchemaRDD.map(new Function<Row, String>() {

        public String call(Row row) throws Exception {
            // TODO Auto-generated method stub
            return row.get(1).toString();
        }

    });
strRDD.saveAsTextFile("outputdir");
将outputdir替换为要写入输出的HDFS url。
希望这能回答您的问题。

您使用的是哪种spark版本@Locki Yang