Hadoop无法找到或加载主类
我尝试从此视频安装hadoopHadoop无法找到或加载主类,hadoop,linux-mint,Hadoop,Linux Mint,我尝试从此视频安装hadoop 当我运行最后一个命令时 start-all.sh 我得到了这个信息: This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh Starting namenodes on [localhost] localhost: namenode running as process 6283. Stop it first. localhost: starting datan
当我运行最后一个命令时
start-all.sh
我得到了这个信息:
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
localhost: namenode running as process 6283. Stop it first.
localhost: starting datanode, logging to /home/myname/hadoop- 2.7.3/logs/hadoop-myname-datanode-MYNAME.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: secondarynamenode running as process 6379. Stop it first.
starting yarn daemons
starting resourcemanager, logging to /home/myname/hadoop- 2.7.3/logs/yarn-myname-resourcemanager-MYNAME.out
Error: Could not find or load main class org.apache.hadoop.yarn.server.resourcemanager.ResourceManager
localhost: starting nodemanager, logging to /home/myname/hadoop- 2.7.3/logs/yarn-myname-nodemanager-MYNAME.out
localhost: Error: Could not find or load main class org.apache.hadoop.yarn.server.nodemanager.NodeManager
我的bashrc文件
my hdfs-site.xml
dfs.replication
1.
默认块复制。
创建文件时,可以指定实际的复制次数。
如果在创建时未指定复制,则使用默认值。
dfs.namenode.name.dir
文件:/home/myname/hadoop-2.7.3/etc/hadoop/hadoop\u store/hdfs/namenode
dfs.datanode.data.dir
文件:/home/myname/hadoop-2.7.3/etc/hadoop/hadoop\u store/hdfs/datanode
my core-site.xml
hadoop.tmp.dir
/home/myname/hadoop-2.7.3/tmp
其他临时目录的基础。
fs.default.name
hdfs://localhost:54310
默认文件系统的名称。其
方案和权限决定文件系统的实现。这个
uri的方案决定了配置属性(fs.scheme.impl)的命名
文件系统实现类。uri的权限用于
确定文件系统的主机、端口等。
my mapred-site.xml
mapred.job.tracker
本地主机:54311
MapReduce作业跟踪器运行的主机和端口
在如果为“本地”,则作业作为单个映射在进程中运行
并减少任务。
我尝试了很多东西,但错误仍然存在。有什么想法吗?在.bashrc文件中添加以下行:
export HADOOP_PREFIX=/path_to_hadoop_location
将以下行添加到.bashrc文件中:
export HADOOP_PREFIX=/path_to_hadoop_location
配置hadoop时,必须包含warn-site.xml文件
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
纱线.节点管理器.辅助服务
mapreduce_shuffle
mapred-site.xml:也添加这个
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
mapreduce.framework.name
纱线
我认为您可以通过添加这些属性来解决这个问题。在配置hadoop时,您必须包含warn-site.xml文件
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
纱线.节点管理器.辅助服务
mapreduce_shuffle
mapred-site.xml:也添加这个
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
mapreduce.framework.name
纱线
我认为您可以通过添加这些属性来解决此问题。守护进程已在运行,请先尝试使用stop-dfs.sh和stop-warn.shi停止它们,但错误仍然存在。除“先停止”部分外,守护进程已在运行,请尝试先使用stop-dfs.sh和stop-thread.shi停止它们,但错误仍然存在。除了“先停止”部分外,错误仍然存在。找不到org.apache.hadoop.warn.server.resourcemanager.resourcemanager或org.apache.hadoop.warn.server.nodemanager.nodemanager。我也尝试了此操作,但错误仍然存在。。对于/path_to_hadoop_location,我写的与在hadoop_安装时完全相同。错误仍然存在。找不到org.apache.hadoop.warn.server.resourcemanager.resourcemanager或org.apache.hadoop.warn.server.nodemanager.nodemanager。我也尝试过,但错误仍然存在。。对于/path\u to\u hadoop\u位置,我编写的代码与hadoop\u安装时完全相同
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>