Hadoop 蜂巢启动失败
我在本地主机上运行了一个hadoop。我尝试设置配置单元并在本地主机上安装配置单元。 当我在终端上设置蜂箱时,出现了以下错误 /ade:[阿什沙尔(ashsshar)\u bda\u最新版本2][ashsshar@slc01nwjtmp2]$hive /usr/lib/hive/bin/hive:179行:需要条件二进制运算符 /usr/lib/hive/bin/hive:179行:意外标记附近的语法错误 `=~' /usr/lib/hive/bin/hive:179行:`if[“$HADOOP_VERSION”=~ $hadoop_version_re]];然后 为了知道蜂巢的版本,我给出了蜂巢的版本,并获得了以下信息 ade:[阿什沙尔(ashsshar)\u bda\u最新版本2][ashsshar@slc01nwj配置单元]$hive-版本 /usr/lib/hive/bin/hive:179行:需要条件二进制运算符 /usr/lib/hive/bin/hive:179行:意外标记附近的语法错误Hadoop 蜂巢启动失败,hadoop,mapreduce,hive,hdfs,Hadoop,Mapreduce,Hive,Hdfs,我在本地主机上运行了一个hadoop。我尝试设置配置单元并在本地主机上安装配置单元。 当我在终端上设置蜂箱时,出现了以下错误 /ade:[阿什沙尔(ashsshar)\u bda\u最新版本2][ashsshar@slc01nwjtmp2]$hive /usr/lib/hive/bin/hive:179行:需要条件二进制运算符 /usr/lib/hive/bin/hive:179行:意外标记附近的语法错误 `=~' /usr/lib/hive/bin/hive:179行:`if[“$HADOOP
=~'/usr/lib/hive/bin/hive:line 179:
if[[“$HADOOP\u VERSION”=~
$hadoop_version_re]];然后
我的hadoop运行良好,显示了适当的方向图
hadoop fs-ls/
找到2项
DRWXRWT-hdfs超群0 2013-04-05 11:57/tmp
drwxrwxr-x-hdfs hadoop 0 2013-04-04 10:49/用户
看起来你把配置单元代码从Windows复制到了Unix,反之亦然,事情就搞砸了 您可以从Hivetar下载新代码,然后在您尝试安装的同一系统中解压缩它吗
这应该行得通。我在bash版本2.05.8中也遇到了同样的问题。我发现使用较新版本的bash(3.2.25)解决了这个问题 进入hadoop文件夹中的配置单元文件夹的bin文件夹
cd /usr/lib/hive/bin hive
希望它能起作用…我用以下方法解决了这个问题:
export HIVE_HOME=<where did you installed hive> [1]
export PATH=$HIVE_HOME/bin:$PATH
export HIVE\u HOME=[1]
导出路径=$HIVE\u HOME/bin:$PATH
[1] 例如:/opt/apache-hive-2.1.0-bin尝试将此配置单元保留在主目录中
不要对配置单元执行bashrc操作,只需将cd刻录到配置单元文件夹,并使用命令bash/hive。确保在/user/hive中有配置单元/仓库目录