Hadoop 通过Eclipse在Hive上使用Spark

Hadoop 通过Eclipse在Hive上使用Spark,hadoop,jdbc,apache-spark,hive,apache-spark-sql,Hadoop,Jdbc,Apache Spark,Hive,Apache Spark Sql,我们使用JDBC API通过Eclipse程序连接到配置单元以访问配置单元表,下面是代码: 导入java.sql.Connection; 导入java.sql.DriverManager; 导入java.sql.ResultSet; 导入java.sql.ResultSetMetaData; 导入java.sql.Statement; 导入org.testng.annotations.Test; 公共类FetchHiveData_测试{ 私有静态字符串driverName=org.apache.

我们使用JDBC API通过Eclipse程序连接到配置单元以访问配置单元表,下面是代码:

导入java.sql.Connection; 导入java.sql.DriverManager; 导入java.sql.ResultSet; 导入java.sql.ResultSetMetaData; 导入java.sql.Statement; 导入org.testng.annotations.Test; 公共类FetchHiveData_测试{ 私有静态字符串driverName=org.apache.hive.jdbc.HiveDriver; @试验 公共无效FetchHiveDataMethod{ 结果集hiveres=null; 试一试{ System.out.PrintLnIn-Hive方法; Class.forNamedriverName; /***********蜂巢***************/ Connection con=DriverManager.getConnectionjdbc:hive2://XXXXX:20000,xxxxxx,yyyyy; 语句stmt=con.createStatement; 字符串sql=从表中选择计数*; hiveres=stmt.executeQuerysql; ResultSetMetaData rsmd=hiveres.getMetaData; int numCols=rsmd.getColumnCount; forint j=1;j试着跑步 您将能够像在hive中一样通过jdbc访问它


注意:这可能不支持所有的hiveQl。

是否又是beeline CLI?我想通过java程序访问它。这将通过spark而不是hive执行查询,这将更快。您当前的程序应该按原样运行。有没有办法通过eclipse运行spark?您只能在本地模式下运行它。将其添加为maven依赖项