Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Oracle 带有ODI 12c的hadoop配置_Oracle_Hadoop_Integration_Etl_Oracle Data Integrator - Fatal编程技术网

Oracle 带有ODI 12c的hadoop配置

Oracle 带有ODI 12c的hadoop配置,oracle,hadoop,integration,etl,oracle-data-integrator,Oracle,Hadoop,Integration,Etl,Oracle Data Integrator,我已经在windows中安装了hadoop 2.7。hadoop运行良好,所有4个服务都在运行。我想将hadoop与我的ETL工具ODI12c集成。为了整合它,我需要以下细节- HDFS名称节点URI 资源管理器/作业跟踪器URI ODI-HDFS根 我应该在那里输入什么? 默认情况下,它设置为-hdfs://localhost:8020,localhost:8032和/user/anmojain/odi_home。当我尝试连接时,它显示错误。请找到截图以供参考。提前谢谢 图像由ODI快照组成,

我已经在windows中安装了hadoop 2.7。hadoop运行良好,所有4个服务都在运行。我想将hadoop与我的ETL工具ODI12c集成。为了整合它,我需要以下细节-

  • HDFS名称节点URI
  • 资源管理器/作业跟踪器URI
  • ODI-HDFS根
  • 我应该在那里输入什么? 默认情况下,它设置为-hdfs://localhost:8020,localhost:8032和/user/anmojain/odi_home。当我尝试连接时,它显示错误。请找到截图以供参考。提前谢谢


    图像由ODI快照组成,您应将其放入字段中:

    1。HDFS名称节点URI

    URI of the HDFS cluster
    
    2。资源经理/工作跟踪器

    URI of the resource manager or the job tracker. Ex. localhost:8032
    
    3。URI ODI HDFS根目录

    Path of the ODI HDFS root directory.Ex. /user/<login_username>/odi_home.
    
    ODI HDFS根目录.Ex的路径/用户//odi_home。
    来源:

    对于HDFS名称节点URI,请记住您应该配置

    core-site.xml

    并添加了类似于以下配置的,hdfs://localhost:9000 是您在考虑以下配置时可以尝试的值。您需要根据您的配置进行更改

    <configuration>
    <property>
      <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
    </configuration>
    

    你的截图在哪里?谢谢你的回答。我已经试过了,但是连接没有成功。对于资源管理器/作业跟踪器,它应该是localhost:8032@jedjs,但是在我的例子中,localhost:8042,但是我没有修改它。如果localhost:8032不起作用,请尝试使用localhost:8042。
    hdfs dfs -mkdir /hdfs_u01
    hdfs dfs -mkdir /hdfs_u01/hadoop
    hdfs dfs -mkdir /hdfs_u01/hadoop/odi