Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/xpath/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
命令运行内置的“;计算pi”;hadoop作业_Hadoop_Openedx - Fatal编程技术网

命令运行内置的“;计算pi”;hadoop作业

命令运行内置的“;计算pi”;hadoop作业,hadoop,openedx,Hadoop,Openedx,我正在尝试在Azure实例上安装Open Edx Insights。LMS和Insights位于同一个框中。作为安装的一部分,我已经通过yml脚本安装了Hadoop、hive等。现在,下一条指令是测试hadoop安装,该文档要求计算“pi”的值。为此,他们发出了以下命令: hadoop jar hadoop*/share/hadoop/mapreduce/hadoop-mapreduce-examples*.jar pi 2 100 但在我运行此命令后,它会给出如下错误: hadoop@Mil

我正在尝试在Azure实例上安装Open Edx Insights。LMS和Insights位于同一个框中。作为安装的一部分,我已经通过yml脚本安装了Hadoop、hive等。现在,下一条指令是测试hadoop安装,该文档要求计算“pi”的值。为此,他们发出了以下命令:

hadoop jar hadoop*/share/hadoop/mapreduce/hadoop-mapreduce-examples*.jar pi 2 100
但在我运行此命令后,它会给出如下错误:

hadoop@MillionEdx:~$ hadoop jar hadoop*/share/hadoop/mapreduce/hadoop-mapreduce-examples*.jar pi 2 100
Unknown program 'hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar' chosen.

Valid program names are:
 aggregatewordcount: An Aggregate based map/reduce program that counts the words in the input files.
aggregatewordhist:一个基于聚合的map/reduce程序,用于计算输入文件中单词的直方图。bbp:一个map/reduce程序,使用Bailey Borwein Plouffe计算Pi的精确数字。
dbcount:一个计算数据库中的页面视图计数的示例作业。
distbbp:一个map/reduce程序,使用BBP类型的公式来计算Pi的精确位。
grep:一个map/reduce程序,它统计输入中正则表达式的匹配项。
联接:对排序的、等分的数据集进行联接的作业
多文件:从多个文件中计算单词的作业。
pentomino:一个map/reduce瓷砖铺设程序,用于找到pentomino问题的解决方案。
pi:一个map/reduce程序,使用准蒙特卡罗方法估计pi。
randomtextwriter:一个map/reduce程序,在每个节点上写入10GB的随机文本数据。
randomwriter:一个map/reduce程序,在每个节点上写入10GB的随机数据。
secondarysort:定义reduce的二级排序的示例。
排序:对随机写入程序写入的数据进行排序的map/reduce程序。
数独:一个数独解算器。
teragen:为terasort生成数据
terasort:运行terasort
teravalidate:检查terasort的结果
wordcount:一个map/reduce程序,对输入文件中的单词进行计数。
wordmean:一个map/reduce程序,计算输入文件中单词的平均长度。
wordmedian:一个map/reduce程序,计算输入文件中单词的中间长度。
wordstandarddeviation:一个map/reduce程序,计算输入文件中单词长度的标准偏差。

我尝试了很多事情,比如尝试为
Pi
提供完全限定的名称,但我从未得到
Pi
的值。请提出一些解决办法。
提前感谢。

需要检查与Hadoop mapreduce 2.7.2兼容的java版本

这可能是因为错误的jar文件对应于java版本