Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/node.js/36.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何使用Node.js读取大文件的一部分?_Node.js_File_Io - Fatal编程技术网

如何使用Node.js读取大文件的一部分?

如何使用Node.js读取大文件的一部分?,node.js,file,io,Node.js,File,Io,我有一个非常大的二进制文件(>25GB),我需要以特定的偏移量非常快速地从中读取一小部分字节。如何在Node.js中高效地完成这一点?关于您想要的内容,请参阅以获取更多详细信息 const fs = require("fs"); const stream = fs.createReadStream("test.txt", { start: 1, end: 5 }); stream.on("data", chunk => console.log(chunk.toString()));

我有一个非常大的二进制文件(>25GB),我需要以特定的偏移量非常快速地从中读取一小部分字节。如何在Node.js中高效地完成这一点?

关于您想要的内容,请参阅以获取更多详细信息

const fs = require("fs");

const stream = fs.createReadStream("test.txt", { start: 1, end: 5 });

stream.on("data", chunk => console.log(chunk.toString()));

当然,如果您有一个名为test.txt的文件…

谢谢!
start
end
参数似乎正是我想要的。