Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop无法找到或加载主类_Hadoop_Linux Mint - Fatal编程技术网

Hadoop无法找到或加载主类

Hadoop无法找到或加载主类,hadoop,linux-mint,Hadoop,Linux Mint,我尝试从此视频安装hadoop 当我运行最后一个命令时 start-all.sh 我得到了这个信息: This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh Starting namenodes on [localhost] localhost: namenode running as process 6283. Stop it first. localhost: starting datan

我尝试从此视频安装hadoop

当我运行最后一个命令时

start-all.sh  
我得到了这个信息:

This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh  
Starting namenodes on [localhost]  
localhost: namenode running as process 6283. Stop it first.  
localhost: starting datanode, logging to /home/myname/hadoop-    2.7.3/logs/hadoop-myname-datanode-MYNAME.out  
Starting secondary namenodes [0.0.0.0]  
0.0.0.0: secondarynamenode running as process 6379. Stop it first.  
starting yarn daemons  
starting resourcemanager, logging to /home/myname/hadoop-    2.7.3/logs/yarn-myname-resourcemanager-MYNAME.out  
Error: Could not find or load main class     org.apache.hadoop.yarn.server.resourcemanager.ResourceManager  
localhost: starting nodemanager, logging to /home/myname/hadoop- 2.7.3/logs/yarn-myname-nodemanager-MYNAME.out  
localhost: Error: Could not find or load main class  org.apache.hadoop.yarn.server.nodemanager.NodeManager  
我的bashrc文件 my hdfs-site.xml

dfs.replication
1.
默认块复制。
创建文件时,可以指定实际的复制次数。
如果在创建时未指定复制,则使用默认值。
dfs.namenode.name.dir
文件:/home/myname/hadoop-2.7.3/etc/hadoop/hadoop\u store/hdfs/namenode
dfs.datanode.data.dir
文件:/home/myname/hadoop-2.7.3/etc/hadoop/hadoop\u store/hdfs/datanode
my core-site.xml

hadoop.tmp.dir
/home/myname/hadoop-2.7.3/tmp
其他临时目录的基础。
fs.default.name
hdfs://localhost:54310  
默认文件系统的名称。其
方案和权限决定文件系统的实现。这个
uri的方案决定了配置属性(fs.scheme.impl)的命名
文件系统实现类。uri的权限用于
确定文件系统的主机、端口等。
my mapred-site.xml

mapred.job.tracker
本地主机:54311
MapReduce作业跟踪器运行的主机和端口
在如果为“本地”,则作业作为单个映射在进程中运行
并减少任务。
我尝试了很多东西,但错误仍然存在。

有什么想法吗?

在.bashrc文件中添加以下行:

export HADOOP_PREFIX=/path_to_hadoop_location

将以下行添加到.bashrc文件中:

export HADOOP_PREFIX=/path_to_hadoop_location

配置hadoop时,必须包含warn-site.xml文件

 <configuration>
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
        </configuration>

纱线.节点管理器.辅助服务
mapreduce_shuffle
mapred-site.xml:也添加这个

<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
  </property>

mapreduce.framework.name
纱线

我认为您可以通过添加这些属性来解决这个问题。

在配置hadoop时,您必须包含warn-site.xml文件

 <configuration>
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
        </configuration>

纱线.节点管理器.辅助服务
mapreduce_shuffle
mapred-site.xml:也添加这个

<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
  </property>

mapreduce.framework.name
纱线

我认为您可以通过添加这些属性来解决此问题。

守护进程已在运行,请先尝试使用stop-dfs.sh和stop-warn.shi停止它们,但错误仍然存在。除“先停止”部分外,守护进程已在运行,请尝试先使用stop-dfs.sh和stop-thread.shi停止它们,但错误仍然存在。除了“先停止”部分外,错误仍然存在。找不到org.apache.hadoop.warn.server.resourcemanager.resourcemanager或org.apache.hadoop.warn.server.nodemanager.nodemanager。我也尝试了此操作,但错误仍然存在。。对于/path_to_hadoop_location,我写的与在hadoop_安装时完全相同。错误仍然存在。找不到org.apache.hadoop.warn.server.resourcemanager.resourcemanager或org.apache.hadoop.warn.server.nodemanager.nodemanager。我也尝试过,但错误仍然存在。。对于/path\u to\u hadoop\u位置,我编写的代码与hadoop\u安装时完全相同
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
  </property>