Java 重复不必要的相同列
我写的这个程序是从我的数据库中提取数据,并将它们转换成.CSV文件,我目前遇到的错误是复制相同的列。这是我的代码,希望你们能帮忙。AOT、gNo所有这些都只是变量名Java 重复不必要的相同列,java,Java,我写的这个程序是从我的数据库中提取数据,并将它们转换成.CSV文件,我目前遇到的错误是复制相同的列。这是我的代码,希望你们能帮忙。AOT、gNo所有这些都只是变量名 while ( rs.next() ) { String aots= rs.getString("aots"); if ( !myAOTS.contains( aots) ) { myAOTS.add(aots); String timeList
while ( rs.next() ) {
String aots= rs.getString("aots");
if ( !myAOTS.contains( aots) ) {
myAOTS.add(aots);
String timeList = "";
if ( rs.getString("aots") != null )
timeList = rs.getString("aots");
String[] timeMinute = timeList;
for (int t = 0; t < timeMinute.length; t ++) {
String strDate = timeMinute[t];
SimpleDateFormat sdf = new SimpleDateFormat("yyyyMMddHHmmss");
Date getDate = sdf.parse(strDate);
getDate.getTime();
//Adding a while loop here stops the duplication of columns but the data in each column which is the time, would be same throughout.
String onlf= rs.getString("onlf");
if ( !myONLF.contains( onlf) )
myONLF.add(onlf);
String gList = "";
if ( rs.getString("fys") != null )
gList = rs.getString("fys");
String[] gNo = gList;
for ( int i = 0 ; i <gNo.length ; i ++ ) {
if ( GDT.containsKey(gNo[i]) )
GDT.get(gNo[i]).put(flno, getDate.getTime());
}
for ( int i = 0 ; i < myONLF.size(); i++) {
stringWriter.append( myONLF.get(i) + ",");
for ( String gNo : GDT.keySet() ) {
if ( GDT.get(gNo).containsKey( myONLF.get(i) ) )
GDTS.get(gNo).append(getDate.getTime() +",");
else
GDTS.get(gNo).append("0,");
}
}
}
}
}
我的预期产出是:
col1, col2, col3, col1, col2,...
eg1, 0, 0, 4562, 0, 0,...
eg2, 0, 0, 0, 0, 0,...
eg3, 0, 54652, 0, 0, 54652,...
eg4, 4512, 0, 0, 4512, 0,...
eg5, 0, 0, 0, 0, 0,...
col1, col2, col3, col4, col5,...
eg1, 0, 0, 4562, 0, 0,...
eg2, 0, 0, 0, 7895, 0,...
eg3, 0, 54652, 0, 0, 0,...
eg4, 4512, 0, 0, 0, 0,...
eg5, 0, 0, 0, 6521, 0,...
请不要使用诸如
aots
、stoa
、fys
、sdf
、gNo
等名称。如果我保持变量名简短,你将一事无成!它所做的只是降低代码的可读性!Drastically我看不到预期输出和当前输出之间有任何明显的关系(我指的是“7895”)。请再解释一下好吗?@shyam这些基本上是我之前转换的时间,单位为毫秒。col1,col2,col3,col1,col2,
在当前输出和col1,col2,col3,col4,col5代码>在预期输出中?您的列号不一致。为什么会这样?@CodeNewbie这正是我面临的错误。专栏不断重复。