Hadoop 运行配置单元查询时获取错误的FS:文件

Hadoop 运行配置单元查询时获取错误的FS:文件,hadoop,hive,Hadoop,Hive,在配置单元上运行简单的select查询时,我遇到了一个奇怪的错误 java.lang.IllegalArgumentException: Wrong FS: file://usr/lib/hive/lib/CustomUDFint.jar, expected: file:/// at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:410) at org.apache.hadoop.fs.RawLocalFile

在配置单元上运行简单的select查询时,我遇到了一个奇怪的错误

java.lang.IllegalArgumentException: Wrong FS: file://usr/lib/hive/lib/CustomUDFint.jar, expected: file:///
    at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:410)
    at org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:56)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:379)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:251)
    at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:207)
在谷歌搜索中,我发现所有的链接都提到表位置的配置单元元数据指向错误的位置

为什么会这样?我怎样才能修好它


谢谢,

请确保HADOOP\u HOME设置为正确的值?您使用的是哪个HADOOP版本?尝试通过Hive shell设置NN的位置,看看是否有帮助:

hive -hiveconf fs.default.name=localhost

根据您的配置更改本地主机。

遇到了同样的问题,在我的pom.xml中,我需要添加依赖项

<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
</dependency>

org.apache.hadoop
hadoop hdfs