Hadoop 如何在mahout中创建具有多个输入文件的数据模型?
我想用大量的*.csv文件创建数据模型。(这些文件格式相同,数据不同)Hadoop 如何在mahout中创建具有多个输入文件的数据模型?,hadoop,bigdata,mahout,datamodel,mahout-recommender,Hadoop,Bigdata,Mahout,Datamodel,Mahout Recommender,我想用大量的*.csv文件创建数据模型。(这些文件格式相同,数据不同) 但是,我不知道怎么做 我无法通过mahout文档找到函数。(mahout API) “将多个*.csv文件转换成一个*.csv文件的模块”唯一解决方案?请帮助 您可以组合所有*.csv文件,即组合两个文件,如下所示 public static void main(String [] args) throws IOException{ BufferedReader reader = new BufferedReader
但是,我不知道怎么做
我无法通过mahout文档找到函数。(mahout API)
“将多个*.csv文件转换成一个*.csv文件的模块”唯一解决方案?
请帮助 您可以组合所有*.csv文件,即组合两个文件,如下所示
public static void main(String [] args) throws IOException{
BufferedReader reader = new BufferedReader(new FileReader("YOUR_SOURCE_1"));
BufferedReader reader2 = new BufferedReader(new FileReader("YOUR_SOURCE_2"));
BufferedWriter writer = new BufferedWriter(new FileWriter("YOUR_TARGET");
int x = 0;
while ((line = reader.readLine()) != null) {
if (x > 0) {
String [] values = line.split("\\t", -1);
writer.write(values[0] + "," + values[1]+","+values[2]+"\n");
}
x++;
}
String line;
int x = 0;
while ((line = reader.readLine()) != null) {
if (x > 0) {
String [] values = line.split("\\t", -1);
writer.write(values[0] + "," + values[1]+","+values[2]+"\n");
}
x++;
}
reader.close();
reader2.close();
writer.close();
}