解析数百万XML文件-Java

解析数百万XML文件-Java,java,xml,xml-parsing,out-of-memory,Java,Xml,Xml Parsing,Out Of Memory,我正在研究解析xml技术,并决定使用SAX over DOM解析器。这些数据包含数百万个xml文件,每个文件大小接近6KB。我正在使用SAXparser 我一个接一个地循环调用parser.parsefile和handler的所有文件,但在100000之后,我得到了一个内存不足的堆错误。当我试图转储堆并读取它时,我看到存储了很多字符数组和字符串 问题是,如何在没有堆错误的情况下解析数百万个小文件 import javax.xml.parsers.*; import org.xml.sax.*;

我正在研究解析xml技术,并决定使用SAX over DOM解析器。这些数据包含数百万个xml文件,每个文件大小接近6KB。我正在使用SAXparser

我一个接一个地循环调用parser.parsefile和handler的所有文件,但在100000之后,我得到了一个内存不足的堆错误。当我试图转储堆并读取它时,我看到存储了很多字符数组和字符串

问题是,如何在没有堆错误的情况下解析数百万个小文件

import javax.xml.parsers.*;
import org.xml.sax.*;
import org.xml.sax.helpers.*;
import java.util.*;
import java.io.*;
import java.util.logging.Level;
import java.util.logging.Logger;

/**
 *
 * @author Ajinkya Jumbad
 */
public class dataset {

    static List<String> cols;
    public HashMap<String, HashMap> hm = new HashMap<>();
    static int i =0;

    dataset() {
        String coln[] = {
            "UID",
            "Name",
            "NationID",
            "Born",
            "Age",
            "IntCaps",
            "IntGoals",
            "U21Caps",
            "U21Goals",
            "Height",
            "Weight",
            "AerialAbility",
            "CommandOfArea",
            "Communication",
            "Eccentricity",
            "Handling",
            "Kicking",
            "OneOnOnes",
            "Reflexes",
            "RushingOut",
            "TendencyToPunch",
            "Throwing",
            "Corners",
            "Crossing",
            "Dribbling",
            "Finishing",
            "FirstTouch",
            "Freekicks",
            "Heading",
            "LongShots",
            "Longthrows",
            "Marking",
            "Passing",
            "PenaltyTaking",
            "Tackling",
            "Technique",
            "Aggression",
            "Anticipation",
            "Bravery",
            "Composure",
            "Concentration",
            "Vision",
            "Decisions",
            "Determination",
            "Flair",
            "Leadership",
            "OffTheBall",
            "Positioning",
            "Teamwork",
            "Workrate",
            "Acceleration",
            "Agility",
            "Balance",
            "Jumping",
            "LeftFoot",
            "NaturalFitness",
            "Pace",
            "RightFoot",
            "Stamina",
            "Strength",
            "Consistency",
            "Dirtiness",
            "ImportantMatches",
            "InjuryProness",
            "Versatility",
            "Adaptability",
            "Ambition",
            "Loyalty",
            "Pressure",
            "Professional",
            "Sportsmanship",
            "Temperament",
            "Controversy",
            "PositionsDesc",
            "Goalkeeper",
            "Sweeper",
            "Striker",
            "AttackingMidCentral",
            "AttackingMidLeft",
            "AttackingMidRight",
            "DefenderCentral",
            "DefenderLeft",
            "DefenderRight",
            "DefensiveMidfielder",
            "MidfielderCentral",
            "MidfielderLeft",
            "MidfielderRight",
            "WingBackLeft",
            "WingBackRight"};
        cols = Arrays.asList(coln);
        try {
            File f = new File("C:\\Users\\Ajinkya Jumbad\\Desktop\\fmdata");

            //File files[] = f.listFiles();
            for (File file : f.listFiles()) {
                //System.out.println(file.getAbsolutePath());
                if (file.isFile()) {
                    parse p = new parse(file);
                }
            }


            //savefile();
        } catch (Exception ex) {
            Logger.getLogger(dataset.class.getName()).log(Level.SEVERE, null, ex);
        }
    }

    private void savefile() {
        try {
            String file_name = "dataset.csv";
            FileWriter w = new FileWriter(file_name);
            writecsv ws = new writecsv();
            boolean first = true;
            StringBuilder sb = new StringBuilder();
            for (String key : cols) {
                if (!first) {
                    sb.append(",");
                }
                sb.append(key);
                first = false;
            }
            sb.append("\n");
            w.append(sb.toString());
            for (String uid : hm.keySet()) {
                ws.writeLine(w, hm.get(uid));
            }
            w.close();
        } catch (Exception e) {
            System.out.println(e.getMessage());
        }
    }

    public class parse{
        parse(File file){
            try {
                SAXParserFactory parserfac = SAXParserFactory.newInstance();
                parserfac.setNamespaceAware(true);
                SAXParser parser = parserfac.newSAXParser();
                DefaultHandler handler = new DefaultHandler(){
                    HashMap<String, String> ht;
                    @Override
                    public void startDocument() {
                        ht = new HashMap<>();
                    }

                    @Override
                    public void startElement(String namespaceURI,
                            String localName,
                            String qName,
                            Attributes atts) {
                        if (atts.getValue("Value") != null && cols.contains(localName)) {
                            //System.out.println(localName);
                            String key = localName;
                            ht.put(key, atts.getValue("Value"));
                        }
                    }

                    @Override
                    public void endDocument() {
                        String uid = ht.get("UID");
                        hm.put(uid, ht);
                        dataset.i += 1;
                        if(dataset.i%100 == 0){
                            System.out.println(dataset.i);
                        }
                    }

                    @Override
                    public void characters(char ch[], int start, int length) throws SAXException {

                    }

                };
                parser.parse(file, handler);
            } catch (Exception ex) {
                Logger.getLogger(dataset.class.getName()).log(Level.SEVERE, null, ex);
            }
        }
    }

    public static void main(String[] args) {
        dataset ds = new dataset();
    }

}

A;完成后关闭文件

B;如果仍然发生这种情况,请跟踪可用内存并调用gc。有点像黑客,但如果能奏效


C;如果您可以访问多个线程,请在尽可能多的线程上运行它;给每个线程一个数字N,并让它处理每个N个文件。

首先,重用SAXParserFactory和解析器本身。创建SAXParserFactory可能非常昂贵,而且创建解析器也不便宜。总的来说,这些操作可能比实际解析输入要花费更长的时间。但这是为了节省时间,而不是内存

就内存而言,我怀疑所有空间都被您自己的数据结构占用了:特别是将结果放入其中的HashMap。尝试使用JVisualVM检查堆以确认这一点

至于底线,如何在不耗尽内存的情况下解析这些数据,这完全取决于您想对数据做什么。没有人为了好玩而解析XML数据;您这样做是因为您想将数据用于某种目的。我们不能在不了解a您想对数据做什么,b您为我们提供了广泛的规模指示的volumetrics的情况下建议您使用不同的方法:但是您应该能够告诉我们您希望此HashMap包含多少个条目,以及条目的大小


还有一件显而易见的小事,如果您不知道的话:在Java命令行上使用-Xmx选项来控制可用堆空间的大小。

那么您的问题是什么?如果不查看代码,就很难为您提供帮助。有人猜测,您一直在打开这些文件,但从未关闭它们并释放资源。您是否尝试过使用DOM解析器,正如您所说的那样,您正在逐个文件进行解析,而每个文件的大小仅为6KB?尝试关闭xml连接以释放内存资源您正在将读取的所有内容存储在HashMap中,您想知道为什么在存储100000个xml文件的内容后内存不足?您给Java提供了多少内存?既然您最终要将其写入csv文件,为什么要将所有内容都存储在内存中?为什么不在应用程序运行时将其写入输出文件?我从不打开文件,请注意,I java.io.file没有close方法,因为它实际上没有打开文件,而是指向文件的指针?您可能想看看SAXParser在读取文件时做了什么。在文件被打开的某个地方,不管它在做什么。我不是存储所有值然后写入它们,而是一个接一个地读取和写入数据。谢谢,成功了。