Linux 无法在Ambari Hadoop群集上启动色调

Linux 无法在Ambari Hadoop群集上启动色调,linux,hadoop,hue,Linux,Hadoop,Hue,我不熟悉大数据、hadoop和linux。我们有一个小的4节点集群,1个主节点和3个节点,运行在Ambari 2.1和Hadoop 2.2.6上。所有机器都运行在Ubuntu服务器12.04上。所有配置正确,工作正常。包括DNS、SSH、NTP等。但是,当我尝试在上面安装HUE 3.8.1时,请遵循以下指南:安装成功,我可以在浏览器中打开它并登录。但随后它向我展示了3个错误配置: 文件系统根“/”应由hdfs拥有 密钥应配置为随机字符串。重新启动时所有会话都将丢失。。。但我从未设置过任何kerb

我不熟悉大数据、hadoop和linux。我们有一个小的4节点集群,1个主节点和3个节点,运行在Ambari 2.1和Hadoop 2.2.6上。所有机器都运行在Ubuntu服务器12.04上。所有配置正确,工作正常。包括DNS、SSH、NTP等。但是,当我尝试在上面安装HUE 3.8.1时,请遵循以下指南:安装成功,我可以在浏览器中打开它并登录。但随后它向我展示了3个错误配置:

  • 文件系统根“/”应由hdfs拥有
  • 密钥应配置为随机字符串。重新启动时所有会话都将丢失。。。但我从未设置过任何kerberos或其他安全性
  • 如果没有正在运行的Livy Spark服务器,该应用程序将无法运行
  • 文件夹/home/user/hue和其中的所有内容都属于hdfs用户,属于hdfs组。当我第一次登录到HUE时,我已经创建了管理员用户。我是否需要将此管理员用户添加到某个组,如果需要,添加到哪个组?此外,Spark作为Ambari软件包的一部分安装并启动运行。我需要单独安装Livy Spark吗?还是需要重新配置?!现在很困惑。。。 我已经仔细检查了所有的配置文件,它看起来对我来说一切正常,任何帮助都可以查看,甚至可以查看挖掘方向。遵循《配置指南》中的所有步骤,并替换为正确的端口、主机和地址。有什么问题吗?怎么开始?提前谢谢

  • 警告HDFS的/路径不属于默认的“HDFS”。如果所有者是其他人,这是正常的,您可以在此处更新色调

  • 你应该在这里为“密钥”输入一个随机的文本字符串,这样没有人可以破解你的用户密码

  • 如果您不使用Spark应用程序,可能会忘记此警告。它要求Livy Spark服务器正在运行


  • 感谢您的回复,第二位“安全密钥”已排序,但第一位和第三位仍然存在。Spark是作为Ambari的一部分安装的,我们将使用它,这是否意味着我也需要在我们的架构上安装Livy Spark组件???我现在已经仔细检查了,默认的hdfs超级用户设置为hdfs用户。。。现在开始一点,bug或错误配置在哪里。没有这两个设置正确,根本无法启动色调。。。你知道我还能查什么吗?!所有看起来都很好,与我遵循的指南完全相同……这些只是警告,色调在大多数应用程序中都能正常工作。如果你不想启动Livy,可以将Spark应用程序列入黑名单,如博客所示。关于#1,您需要检查/的所有者,并将其发送给HDFSM感谢Romain,我确实理解这只是一个警告,大多数应用程序都可以工作。我能够使用文件浏览器,对表运行静默,使用Hive和Pig。但是,我确实安装了Spark作为Ambari的一部分,我们需要它来运行,我安装了Livy Spark,但看起来有一些配置错误,这就是为什么当我尝试运行测试或一些简单的应用程序时,它会显示一些错误(错误504等)。如果你能就如何配置(Ambari+Hadoop+Hue+Spark+Spark流媒体)给我一些好的文档/指南,那就太好了。我还注意到,HBase不在hue.thanks下工作,还有一个问题,#1,您需要检查/的所有者,并将其传送到hdfs,据我所知,它是Hadoop根文件夹?我无法更改它,当我运行chown命令时,什么也没发生,Hadoop根文件夹仍然由root用户拥有。你知道我还能怎样把它改成HDFS用户吗?我已经对HUE.INI default superuser=hdfs进行了更改,但这似乎对我没有帮助。。