Java 在完成所有配置后仍坚持使用Hadoop

Java 在完成所有配置后仍坚持使用Hadoop,java,eclipse,hadoop,Java,Eclipse,Hadoop,我使用Centos在localhost上运行Hadoop环境。我已经按照不同论坛的所有步骤安装了它,并提供了文档 据我所知,Hadoop使用三个localhost运行。[附上截图] 此外,eclipse上的配置也已完成,eclipse上的所有选项都可用,如(Map Reduce,在Hadoop上运行)。Map Reduce程序完成后,结构化文件也成功地转换为非结构化形式 现在,我被困在这里,不知道如何继续使用Hadoop?如何检索数据?我可以使用哪些工具/API来查询数据 如果有人参与过,请

我使用Centos在localhost上运行Hadoop环境。我已经按照不同论坛的所有步骤安装了它,并提供了文档

据我所知,Hadoop使用三个localhost运行。[附上截图]

此外,eclipse上的配置也已完成,eclipse上的所有选项都可用,如(Map Reduce,在Hadoop上运行)。Map Reduce程序完成后,结构化文件也成功地转换为非结构化形式

现在,我被困在这里,不知道如何继续使用Hadoop?如何检索数据?我可以使用哪些工具/API来查询数据

如果有人参与过,请分享经验


谢谢。

祝贺您安装并运行了所有内容。您应该看看这两家公司中的任何一家或Cloudera。我不为这两家公司工作,也不推荐一家优于另一家,但每一家公司都有超出安装和配置范围的示例和教程

具体来说,您需要查看并使用HDFS中的数据。Hive在HiveQL中提供了一种查询语言,允许您在HDFS或HCatalog中查询和使用数据。Pig是一种脚本语言,还允许访问HDFS中的数据

从上述参考资料开始,您将在这些网站中找到其他示例和教程

享受,
Pat

基本上我想按语法访问HDFS。那么有没有用于此目的的api?因为,到目前为止,我知道Hive和Pig不是api,而是单独的工具。如果我的标题有误,请纠正我。不确定按语法访问HDFS是什么意思,但有Hadoop api引用和Hive api引用。你需要吗d使用这些API扩展或创建您的HDFS访问。您在Apache项目阶段处于Google阶段,直到您在该站点上实际有一些代码可以完成。这就是为什么您的问题被搁置的原因,这不是一个在StackOverflow上运行良好的问题。顺便说一句,安装Hive和Pig,这样您就拥有了这些Jar,您就拥有了所有的包你已经有了Hadoop和HDFS软件包。基本上,我想按语法访问HDFS。那么有没有用于此目的的api?因为,到目前为止,我知道Hive和Pig不是api,而是单独的工具。确切地说,我想知道在eclipse中访问HDFS的下一步。