Oozie在随机节点上运行shell脚本

Oozie在随机节点上运行shell脚本,shell,hadoop,ftp,hdfs,oozie,Shell,Hadoop,Ftp,Hdfs,Oozie,我编写了类似smth的定制oozie FTP操作(Boris Lublinsky;Kevin T.Smith;Alexey Yakubovich在“专业Hadoop解决方案”中描述的简单示例)。我们在node1上有HDFS,在node2上有Oozie服务器。Node2还具有HDFS客户端 我的问题是: Oozie作业从node1开始(所有需要的文件都位于node1的HDFS上) Oozie自定义FTP操作已成功从node2上的FTP下载CSV文件(Oozie服务器位于) 我应该将文件传递到HDF

我编写了类似smth的定制oozie FTP操作(Boris Lublinsky;Kevin T.Smith;Alexey Yakubovich在“专业Hadoop解决方案”中描述的简单示例)。我们在node1上有HDFS,在node2上有Oozie服务器。Node2还具有HDFS客户端

我的问题是:

  • Oozie作业从node1开始(所有需要的文件都位于node1的HDFS上)
  • Oozie自定义FTP操作已成功从node2上的FTP下载CSV文件(Oozie服务器位于)
  • 我应该将文件传递到HDFS中,并从node1上的CSV创建外部表。 我尝试使用Java操作并调用
    fileSystem.moveFromLocalFile(…)
    方法。此外,我还尝试使用Shell操作,如
    /usr/bin/hadoop fs-moveFromLocal/tmp\import\u folder/filename.csv/user/user\u来导入/imported/filename.csv
    ,但没有效果。所有操作似乎都试图查找节点1上的文件。如果我从节点2开始oozie作业,结果也是一样的

  • 问题:我可以将FTP操作的节点设置为从node1上的FTP加载文件吗?或者,我可以使用其他方式在HDFS中传递下载的文件吗?

    Oozie在配置的Map Reduce集群的节点上运行其所有操作,作为MR作业。没有办法让Oozie在特定节点上运行某些操作


    基本上,您应该使用Flume将文件摄取到HDF中。在FTP节点上设置Flume代理。

    Oozie在配置的Map Reduce群集的节点上运行其所有操作,作为MR作业。没有办法让Oozie在特定节点上运行某些操作


    基本上,您应该使用Flume将文件摄取到HDF中。在FTP节点上设置Flume代理。

    Ozzie允许用户通过oozie sssh shell扩展在特定节点上运行shell脚本。

    Ozzie允许用户通过oozie sssh shell扩展在特定节点上运行shell脚本。