Hadoop 运行配置单元查询时获取错误的FS:文件
在配置单元上运行简单的select查询时,我遇到了一个奇怪的错误Hadoop 运行配置单元查询时获取错误的FS:文件,hadoop,hive,Hadoop,Hive,在配置单元上运行简单的select查询时,我遇到了一个奇怪的错误 java.lang.IllegalArgumentException: Wrong FS: file://usr/lib/hive/lib/CustomUDFint.jar, expected: file:/// at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:410) at org.apache.hadoop.fs.RawLocalFile
java.lang.IllegalArgumentException: Wrong FS: file://usr/lib/hive/lib/CustomUDFint.jar, expected: file:///
at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:410)
at org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:56)
at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:379)
at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:251)
at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:207)
在谷歌搜索中,我发现所有的链接都提到表位置的配置单元元数据指向错误的位置
为什么会这样?我怎样才能修好它
谢谢,请确保HADOOP\u HOME设置为正确的值?您使用的是哪个HADOOP版本?尝试通过Hive shell设置NN的位置,看看是否有帮助:
hive -hiveconf fs.default.name=localhost
根据您的配置更改本地主机。遇到了同样的问题,在我的pom.xml中,我需要添加依赖项
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
</dependency>
org.apache.hadoop
hadoop hdfs