Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/node.js/34.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/angular/33.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js 如何在nodejs中读取大型XLSX文件_Node.js_Angular_Xlsx - Fatal编程技术网

Node.js 如何在nodejs中读取大型XLSX文件

Node.js 如何在nodejs中读取大型XLSX文件,node.js,angular,xlsx,Node.js,Angular,Xlsx,我使用了ts xlsx节点端。我使用文件读取器作为字节数组从前端读取数据,然后发送字节数组并使用lib处理数据。在少量数据中,需要的时间较少,但如果数据较大,则需要太多时间才能得到响应。谁能告诉我有效的方法吗 在前端:- let file: File = evt.target.files[0]; let reader: FileReader = new FileReader(); reader.onload = (e) => { this.csv = re

我使用了ts xlsx节点端。我使用文件读取器作为字节数组从前端读取数据,然后发送字节数组并使用lib处理数据。在少量数据中,需要的时间较少,但如果数据较大,则需要太多时间才能得到响应。谁能告诉我有效的方法吗

在前端:-

let file: File = evt.target.files[0];
     let reader: FileReader = new FileReader();
     reader.onload = (e) => {
       this.csv = reader.result;
       this.isUpload = true;
     }
     reader.readAsBinaryString(file);
在节点端:-

var data = XLSX.read(this.csv, { type: "binary" });
const wsname = data.SheetNames[0];
const ws = data.Sheets[wsname];
const bdata = XLSX.utils.sheet_to_json(ws, {raw:true});

var data=XLSX.readFile(this.csv,{type:“binary”});//read=>readFile

我们需要您查看代码,以便help@AmitWagner代码添加删除前端渲染并发送文件。在服务器中,我看不到任何特殊处理,因此您可以做的事情不多。@AmitWagner将工作表转换为json时,在服务器端花费了太多时间,这是我面临的主要问题。如果是一个大文件,则需要时间。您可以做的是使用流。处理每一行并将其发送到前面。在你的前面,一行一行地处理这个流,不要等待整个请求完成