Hadoop 通过camel将文件复制到HDFS2不起作用

Hadoop 通过camel将文件复制到HDFS2不起作用,hadoop,apache-camel,hdfs,Hadoop,Apache Camel,Hdfs,有人有通过camel将文件写入hdfs2的好例子吗 我尝试了以下代码: import org.apache.camel.CamelContext; import org.apache.camel.ProducerTemplate; import org.apache.camel.builder.RouteBuilder; import org.apache.camel.impl.DefaultCamelContext; public final class Main { privat

有人有通过camel将文件写入hdfs2的好例子吗

我尝试了以下代码:

import org.apache.camel.CamelContext;
import org.apache.camel.ProducerTemplate;
import org.apache.camel.builder.RouteBuilder;
import org.apache.camel.impl.DefaultCamelContext;

public final class Main {

    private Main() {
    }

    public static void main(String args[]) throws Exception {
        CamelContext context = new DefaultCamelContext();
        context.addRoutes(new RouteBuilder() {
            public void configure() {
                from("file:C:\\FILES\\SRC\\2015-03-31_16-58-56.png?noop=true")
                        .to("hdfs2://xxxx:9000/testCamel/D2/qwe.png");
                        //.to("file:C:\\FILES\\OUT");
            }
        });
        //ProducerTemplate template = context.createProducerTemplate();

        context.start();

        context.stop();
    }
}

这些文件是在HDFS中创建的,但它们都是空的0字节。

当您从文件使用到HDFS时,请确保noop=false。hdfs组件使用chunk来消费,所以如果noop为true,camel会认为它已经消费了它。

您可以通过编辑您的问题来添加一些关于您的问题的详细信息吗?您是否遇到异常,或者该文件没有被复制?在我的Hadoop中,创建了文件,但它们是0字节