Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/google-chrome/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java 如何在Hadoop上引用hdfs中存储的依赖项(JAR)?_Java_Hadoop_Jar_Dependencies_Classpath - Fatal编程技术网

Java 如何在Hadoop上引用hdfs中存储的依赖项(JAR)?

Java 如何在Hadoop上引用hdfs中存储的依赖项(JAR)?,java,hadoop,jar,dependencies,classpath,Java,Hadoop,Jar,Dependencies,Classpath,关于Hadoop:我想运行一个jar,它有许多依赖项jar存储在hdfs中,我不想把它们放在本地文件系统中 我该怎么做?您可以将它们放在客户端的类路径上 Edgenode,即运行代码主jar的机器 更新:您可以浏览-libjars选项 你也可以查看这个非常好的博客。 你能举个例子吗。另外,存储在hdfs中的依赖项JAR我不想将它们放在每个节点的本地文件系统中。我建议只研究一次-libjars选项。我认为本地库的libjar不适用于hdfs中的库

关于Hadoop:我想运行一个jar,它有许多依赖项jar存储在hdfs中,我不想把它们放在本地文件系统中


我该怎么做?

您可以将它们放在客户端的类路径上 Edgenode,即运行代码主jar的机器

更新:您可以浏览-libjars选项

你也可以查看这个非常好的博客。

你能举个例子吗。另外,存储在hdfs中的依赖项JAR我不想将它们放在每个节点的本地文件系统中。我建议只研究一次-libjars选项。我认为本地库的libjar不适用于hdfs中的库