Amazon s3 hadoop无法访问s3

Amazon s3 hadoop无法访问s3,amazon-s3,hadoop,amazon-web-services,hdfs,Amazon S3,Hadoop,Amazon Web Services,Hdfs,我有一个关于aws上hadoop access s3的问题 <property> <name>fs.default.name</name> <value>s3n://testhadoophiveserver</value> </property> <property> <name>fs.s3n.awsAccessKeyId</name> <value>I have fill

我有一个关于aws上hadoop access s3的问题

<property>
<name>fs.default.name</name>
<value>s3n://testhadoophiveserver</value>
</property>

<property>

<name>fs.s3n.awsAccessKeyId</name>
<value>I have fill it</value>
</property>
<property>
<name>fs.s3n.awsSecretAccessKey</name>
<value>I have fill it</value>
</property>

fs.default.name
s3n://testhadoophiveserver
fs.s3n.awsAccessKeyId
我已经填好了
fs.s3n.awsSecretAccessKey
我已经填好了
所以,我在运行start-all.sh时得到了一个错误代码。 像这样:

hadoopmaster: Exception in thread "main" java.net.UnknownHostException: unknown host: testhadoophiveserver
hadoopmaster:   at org.apache.hadoop.ipc.Client$Connection.<init>(Client.java:195)

hadoopmaster:   at org.apache.hadoop.ipc.Client.getConnection(Client.java:850)

adoopmaster:    at org.apache.hadoop.ipc.Client.call(Client.java:720)

hadoopmaster:   at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220)

hadoopmaster:   at $Proxy4.getProtocolVersion(Unknown Source)

hadoopmaster:   at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359)
hadoopmaster:   at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346)
hadoopmaster:   at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383)
hadoopmaster:   at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314)
hadoopmaster:线程“main”java.net.UnknownHostException中的异常:未知主机:testhadoophiveserver
hadoopmaster:org.apache.hadoop.ipc.Client$Connection(Client.java:195)
hadoopmaster:org.apache.hadoop.ipc.Client.getConnection(Client.java:850)
adoopmaster:org.apache.hadoop.ipc.Client.call(Client.java:720)
hadoopmaster:org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220)
hadoopmaster:at$Proxy4.getProtocolVersion(未知源)
hadoopmaster:org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359)
hadoopmaster:org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346)
hadoopmaster:org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383)
hadoopmaster:org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314)
但是,如果我使用HDFS,就没关系了。 现在,我不能使用S3文件系统。
谁能帮我?

我认为你不应该运行“start all.sh”。 脚本“start all.sh”包括启动HDFS和MapReduce的代码。 如果已配置为使用S3作为底层存储层,则无需启动HDFS。 start-all.sh调用start-dfs.sh,因此它将执行代码来启动您未配置的HDFS