Hadoop 如何在mahout中创建具有多个输入文件的数据模型?

Hadoop 如何在mahout中创建具有多个输入文件的数据模型?,hadoop,bigdata,mahout,datamodel,mahout-recommender,Hadoop,Bigdata,Mahout,Datamodel,Mahout Recommender,我想用大量的*.csv文件创建数据模型。(这些文件格式相同,数据不同) 但是,我不知道怎么做 我无法通过mahout文档找到函数。(mahout API) “将多个*.csv文件转换成一个*.csv文件的模块”唯一解决方案?请帮助 您可以组合所有*.csv文件,即组合两个文件,如下所示 public static void main(String [] args) throws IOException{ BufferedReader reader = new BufferedReader

我想用大量的*.csv文件创建数据模型。(这些文件格式相同,数据不同)
但是,我不知道怎么做
我无法通过mahout文档找到函数。(mahout API)

“将多个*.csv文件转换成一个*.csv文件的模块”唯一解决方案?
请帮助

您可以组合所有*.csv文件,即组合两个文件,如下所示

public static void main(String [] args) throws IOException{
    BufferedReader reader = new BufferedReader(new FileReader("YOUR_SOURCE_1"));
    BufferedReader reader2 = new BufferedReader(new FileReader("YOUR_SOURCE_2"));
    BufferedWriter writer = new BufferedWriter(new FileWriter("YOUR_TARGET");
    int x = 0;
    while ((line = reader.readLine()) != null) {
        if (x > 0) {
            String [] values = line.split("\\t", -1);
            writer.write(values[0] + "," + values[1]+","+values[2]+"\n");
        }
        x++;
    }
    String line;
    int x = 0;
    while ((line = reader.readLine()) != null) {
        if (x > 0) {
            String [] values = line.split("\\t", -1);
            writer.write(values[0] + "," + values[1]+","+values[2]+"\n");
        }
        x++;
    }
    reader.close();
    reader2.close();
    writer.close();
}