Hadoop java.net.ConnectException执行本地到hdfs文件传输时出错

Hadoop java.net.ConnectException执行本地到hdfs文件传输时出错,hadoop,mapreduce,Hadoop,Mapreduce,我浏览了几篇相关的帖子,但没有找到解决办法 目的:尝试执行map reduce作业 到目前为止已完成:创建并测试了mapper和reducer.py。工作正常。 来宾操作系统:Ubuntu 20 主机操作系统:windows HV工具:Vmware 15 从中使用的步骤 过程:首先创建mapper.py和reducer.py。用简单文件测试它。将csv文件上载到hadoop文件系统。[使用put或copyfromLocal] 错误:试图将文件从本地传输到hdfs 下面是错误图片: 我相信hdfs

我浏览了几篇相关的帖子,但没有找到解决办法
目的:尝试执行map reduce作业
到目前为止已完成:创建并测试了mapper和reducer.py。工作正常。
来宾操作系统:Ubuntu 20
主机操作系统:windows
HV工具:Vmware 15

从中使用的步骤
过程:首先创建mapper.py和reducer.py。用简单文件测试它。将csv文件上载到hadoop文件系统。[使用put或copyfromLocal]

错误:试图将文件从本地传输到hdfs
下面是错误图片:

我相信hdfs目录是/usr/local/hadoop/data[从core site.xml创建]
基本上就是我找不到的hadoop目录。大多数情况下是“/”或“.”,下面有两个文件夹/tmp和/user。如果我执行
hdfs fs-ls/
抛出的错误是没有这样的文件或目录

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!--
  Licensed under the Apache License, Version 2.0 (the "License");
  you may not use this file except in compliance with the License.
  You may obtain a copy of the License at

    http://www.apache.org/licenses/LICENSE-2.0

  Unless required by applicable law or agreed to in writing, software
  distributed under the License is distributed on an "AS IS" BASIS,
  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  See the License for the specific language governing permissions and
  limitations under the License. See accompanying LICENSE file.
-->

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://127.0.0.1:9000</value>
    </property>

    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/data</value>
    </property>
</configuration>

fs.default.name
hdfs://127.0.0.1:9000
hadoop.tmp.dir
/usr/local/hadoop/data
以下是core-site.xml:

今天是第六天。请帮我解决这最后一个问题,这样我可以执行地图减少没有错误 提前谢谢