Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/java/313.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 使用JDBC和Kerberos身份验证连接到配置单元时发生异常_Java_Hadoop_Hive_Kerberos - Fatal编程技术网

Java 使用JDBC和Kerberos身份验证连接到配置单元时发生异常

Java 使用JDBC和Kerberos身份验证连接到配置单元时发生异常,java,hadoop,hive,kerberos,Java,Hadoop,Hive,Kerberos,我正在尝试使用Java中的JDBC和Kerberos身份验证连接到配置单元。 为此,我提出了以下代码 import java.io.IOException; import java.sql.Connection; import java.sql.DriverManager; import java.sql.SQLException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.security.Us

我正在尝试使用Java中的JDBC和Kerberos身份验证连接到配置单元。 为此,我提出了以下代码

import java.io.IOException;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.SQLException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.security.UserGroupInformation;

public class DbManager {
private static Connection hiveConnection;
// get Hive Connection
public static Connection qwtHiveConnection() throws IOException, SQLException {

    System.out.println("Preparing Hive connection1");
    Configuration conf = new Configuration();
    conf.set("hadoop.security.authentication", "Kerberos");
    UserGroupInformation.setConfiguration(conf);
    UserGroupInformation.loginUserFromKeytab("username@HLC.ABC.QW.COM", "path of keytab");
    // Hive Connection
    try {
        Class.forName("org.apache.hive.jdbc.HiveDriver");
        if(hiveConnection == null) {
            hiveConnection = DriverManager.getConnection("jdbc:hive2://abcd1dq000.hlc.abc.qw.com:10000/finance;principal=hive/_HOST@HLC.ABC.QW.COM", "usrname", "pwd");
            return hiveConnection;
        } else {
        return hiveConnection;
        }
    } catch (ClassNotFoundException e) {
        e.printStackTrace();
        return null;
    } catch (SQLException e) {
        e.printStackTrace();
        return null;
    }
}
}
我从命令“Hadoop版本”中看到的Hadoop版本: Hadoop 2.7.3.2.6.2.0-205 此命令是使用/usr/hdp/2.6.2.0-205/hadoop/hadoop-common-2.7.3.2.6.2.0-205.jar运行的

我在项目中使用以下jar文件:

hive-jdbc-2.2.0.jar,
postgresql-9.4.1212.jar,
apache-commons.jar,
slf4j-api-1.7.25.jar,
hadoop-commons-2.6.2.jar,
guava-18.0.jar,
commons-configuration-1.9.jar,
commons-lang-2.6.jar,
hadoop-auth-2.6.2.jar,
hadoop-core-1.2.0.jar
当我运行jar时,我得到一个异常:

Preparing Hive connection1
SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
Kerberos Connected
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hive/service/rpc/thrift/TCLIService$Iface
    at org.apache.hive.jdbc.HiveDriver.connect(HiveDriver.java:107)
    at java.sql.DriverManager.getConnection(DriverManager.java:664)
    at java.sql.DriverManager.getConnection(DriverManager.java:247)
    at com.dbconnections.gphive.DbManager.getHiveConnection(DbManager.java:35)
    at com.recordcount.dao.GpHiveRecords.getHiveTableCount(GpHiveRecords.java:93)
    at com.recordcount.entry.StartCount.main(StartCount.java:13)
Caused by: java.lang.ClassNotFoundException: org.apache.hive.service.rpc.thrift.TCLIService$Iface
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
    ... 6 more

看起来您缺少以下依赖项:

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-service-rpc</artifactId>
    <version>2.2.0</version>
</dependency>

org.apache.hive
配置单元服务rpc
2.2.0
这个jar包含缺少的接口

更新:

看起来您还需要:

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-service</artifactId>
    <version>2.2.0</version>
</dependency>

org.apache.hive
蜂箱服务
2.2.0

还有mybe other jar。

看起来您缺少以下依赖项:

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-service-rpc</artifactId>
    <version>2.2.0</version>
</dependency>

org.apache.hive
配置单元服务rpc
2.2.0
这个jar包含缺少的接口

更新:

看起来您还需要:

<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-service</artifactId>
    <version>2.2.0</version>
</dependency>

org.apache.hive
蜂箱服务
2.2.0

和mybe other jar。

添加之后,我得到了一个异常:线程“main”java.lang.NoClassDefFoundError:org/apache/hive/service/cli/HiveSQLException中的异常。看起来我需要为所有这些异常添加其他依赖项。@Sidhartha在添加该异常后,请查看我的更新回答,我得到了异常:线程“main”java.lang.NoClassDefFoundError:org/apache/hive/service/cli/HiveSQLException中的异常看起来我需要为所有这些异常添加其他依赖项。@Sidhartha查看我的升级应答器使用
hive jdbc standalone
JAR。这意味着捆绑所有这些棘手的依赖关系。除了需要Hadoop和Commons提供一些额外方法的Kerberos身份验证之外——但由于您显式调用了UGI,您仍然可以使用它们。请注意,如果您需要从Windows会话凭据进行单点登录身份验证,这是可行的——方法是转储Hadoop UGI并使用原始JAAS配置。不容易(没有教程,缺少文档,调试起来很棘手),但可行。使用
hivejdbc standalone
JAR。这意味着捆绑所有这些棘手的依赖关系。除了需要Hadoop和Commons提供一些额外方法的Kerberos身份验证之外——但由于您显式调用了UGI,您仍然可以使用它们。请注意,如果您需要从Windows会话凭据进行单点登录身份验证,这是可行的——方法是转储Hadoop UGI并使用原始JAAS配置。不容易(没有教程,缺乏文档,调试困难),但可行。