Apache spark 如何在不运行spark作业的情况下对Hadoop运行spark sql查询

Apache spark 如何在不运行spark作业的情况下对Hadoop运行spark sql查询,apache-spark,hadoop,Apache Spark,Hadoop,我开发了spark sql来运行hadoop。今天,我必须运行一个spark作业来调用我的查询。还有别的办法吗?我发现我花了太多的时间来解决在spark中运行工作的一些次要问题。理想情况下,我希望能够直接针对hadoop/hbase编写和执行Spark SQL查询,并完全绕过Spark作业。这将允许在调试或尝试其他查询时进行更快的迭代 请注意,我的查询通常有100行或更长,因此从命令行进行操作是一项挑战 我必须在WIndows工作站上执行此操作对于HBase,最好使用ApachePhoenix。

我开发了spark sql来运行hadoop。今天,我必须运行一个spark作业来调用我的查询。还有别的办法吗?我发现我花了太多的时间来解决在spark中运行工作的一些次要问题。理想情况下,我希望能够直接针对hadoop/hbase编写和执行Spark SQL查询,并完全绕过Spark作业。这将允许在调试或尝试其他查询时进行更快的迭代


请注意,我的查询通常有100行或更长,因此从命令行进行操作是一项挑战


我必须在WIndows工作站上执行此操作

对于HBase,最好使用ApachePhoenix。它提供了一个SQL接口

例如,在我的上一个项目中,我使用NIFI和Phoenix来读取和修改HBase数据。从命令行工作得很好。我确实在使用中发现了一个bug

看。您可以使用SQL文件。此外,你可以使用色调


从未为Windows尝试过以下操作,但这是可能的。请参见

针对Hadoop中的哪个源?@BluePhantom Spark SQL查询直接针对Hadoop/hba请注意,我的查询通常有100行或更多行,因此从命令行进行操作很有挑战性。而且…我需要Windows客户端干杯,祝成功。