Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 配置单元-使用外部或本地s3而不是aws s3_Amazon S3_Hive - Fatal编程技术网

Amazon s3 配置单元-使用外部或本地s3而不是aws s3

Amazon s3 配置单元-使用外部或本地s3而不是aws s3,amazon-s3,hive,Amazon S3,Hive,我有自己的s3在本地运行,而不是aws s3。有没有办法覆盖s3.amazonaws.com 我已经创建了hive site.xml并将其放入${hive\u HOME}/conf/ 这是我在.xml中得到的: <configuration> <property> <name>fs.s3n.impl</name> <value>org.apache.hadoop.fs.s3native.NativeS3FileSyste

我有自己的s3在本地运行,而不是aws s3。有没有办法覆盖s3.amazonaws.com 我已经创建了
hive site.xml
并将其放入
${hive\u HOME}/conf/

这是我在.xml中得到的:

<configuration>
<property>
    <name>fs.s3n.impl</name>
    <value>org.apache.hadoop.fs.s3native.NativeS3FileSystem</value>
</property>
<property>
    <name>fs.s3n.endpoint</name>
    <value>local_s3_ip:port</value>
</property>
<property>
    <name>fs.s3n.awsAccessKeyId</name>
    <value>VALUE</value>
</property>
<property>
    <name>fs.s3n.awsSecretAccessKey</name>
    <value>VALUE</value>
</property>    
我有一个错误:
org.apache.hadoop.hive.ql.exec.ddlstask。java.net.UnknownHostException:hive.s3.amazonaws.com:名称解析暂时失败

它既不适用于s3也不适用于s3n

是否可以覆盖默认的s3.amazonaws.com并使用我自己的s3

  • 切换到S3A连接器(和Hadoop 2.7+JARs)
  • 将“fs.s3a.endpoint”设置为服务器的主机名
  • 和“fs.s3a.path.style.access”=true(而不是期望每个bucket都有DNS)

  • 由于签名在第三方存储中总是一个麻烦问题,因此我希望花时间在身份验证选项上。

    通过此配置,我能够到达自己的s3端点

    <configuration>
        <property>
            <name>fs.s3a.impl</name>
            <value>org.apache.hadoop.fs.s3a.S3AFileSystem</value>
        </property>
        <property>
            <name>fs.s3a.endpoint</name>
            <value> <ip>:<port> </value>
        </property>
        <property>
            <name>fs.s3a.path.style.access</name>
            <value>true</value>
        </property>
       <property>
          <name>fs.s3a.access.key</name>
          <value> <ak> </value>
       </property>
       <property>
          <name>fs.s3a.secret.key</name>
          <value> <sk> </value>
       </property>
        <property>
            <name>fs.s3a.awsAccessKeyId</name>
            <value> <ak> </value>
        </property>
        <property>
            <name>fs.s3a.awsSecretAccessKey</name>
            <value> <sk> </value>
        </property>
        <property>
            <name>fs.s3a.connection.ssl.enabled</name>
            <value>false</value>
        </property>
    
    
    fs.s3a.impl
    org.apache.hadoop.fs.s3a.S3AFileSystem
    fs.s3a.endpoint
    : 
    fs.s3a.path.style.access
    真的
    fs.s3a.access.key
    fs.s3a.secret.key
    fs.s3a.awsAccessKeyId
    fs.s3a.awsSecretAccessKey
    fs.s3a.connection.ssl.enabled
    假的
    

    <configuration>
        <property>
            <name>fs.s3a.impl</name>
            <value>org.apache.hadoop.fs.s3a.S3AFileSystem</value>
        </property>
        <property>
            <name>fs.s3a.endpoint</name>
            <value> <ip>:<port> </value>
        </property>
        <property>
            <name>fs.s3a.path.style.access</name>
            <value>true</value>
        </property>
       <property>
          <name>fs.s3a.access.key</name>
          <value> <ak> </value>
       </property>
       <property>
          <name>fs.s3a.secret.key</name>
          <value> <sk> </value>
       </property>
        <property>
            <name>fs.s3a.awsAccessKeyId</name>
            <value> <ak> </value>
        </property>
        <property>
            <name>fs.s3a.awsSecretAccessKey</name>
            <value> <sk> </value>
        </property>
        <property>
            <name>fs.s3a.connection.ssl.enabled</name>
            <value>false</value>
        </property>