被node.js坑过的事(二)

来源:互联网 发布:objective c 知乎 编辑:程序博客网 时间:2024/06/15 21:46

公司最近在做一个对大量数据进行计算的项目,阴差阳错用上了node.js,中间出现很多的版本问题,不过通过升级几次版本终于搞过去了,但是有个问题是io效率问题。经过反复尝试发现读取文件的一下总结:

在Node.js中,我们可以通过两种方式来读取文件:

  • 使用fs.readFile()一次性将文件内容全部读取出来,考虑到可能将来会操作几G大的文件,所以放弃了这种方式;
  • 使用fs.createReadStream()创建一个读文件流,这种方式可不受限于文件的大小;

因此,我很顺理成章地选用了fs.createReadStream()来读取文件,自然在写文件时也使用对应的fs.createWriteStream()来做。

按行读写流

由于要操作的是文本文件,并且文件中的内容每一行记录均使用换行符\n来分隔,我编写了一个模块用来按行从一个stream中读取内容,以及按行往一个stream中写入内容,下面将介绍这个模块的简单使用方法。

安装模块

执行以下命令安装

$ npm install lei-stream --save

按行读取流

var readLine = require('lei-stream').readLine;readLine('./myfile.txt').go(function (data, next) {  console.log(data);  next();}, function () {  console.log('end');});

说明:

  • readLine()的第一个参数应该传入一个ReadStream实例,当传入的是一个字符串时,会把它当作一个文件,自动调用fs.createReadStream()来创建一个ReadStream
  • readLine()的第二个参数为读取到一行内容时的回调函数,为了便于控制读取速度,需要在回调函数中执行next()来继续读取下一行
  • readLine()的第三个参数为整个流读取完毕后的回调函数

另外,我们也可以指定各个选项来达到更个性化的控制:

var fs = require('fs');var readLine = require('lei-stream').readLine;// readLineStream第一个参数为ReadStream实例,也可以为文件名var s = readLine(fs.createReadStream('./myfile.txt'), {  // 换行符,默认\n  newline: '\n',  // 是否自动读取下一行,默认false  autoNext: false,  // 编码器,可以为函数或字符串(内置编码器:json,base64),默认null  encoding: function (data) {    return JSON.parse(data);  }});// 读取到一行数据时触发data事件s.on('data', function (data) {  console.log(data);  s.next();});// 流结束时触发end事件s.on('end', function () {  console.log('end');});

以下是关于readLine()的第二个参数的说明:

  • newLine表示换行符,默认为\n,当然也可以设置为任意字符,当读取到该字符时程序会认为该行数据已结束,并触发data事件
  • autoNext表示是否自动读取下一行的内容,默认为false,如果设置为true,则不需要手动执行next()函数来继续读取
  • encoding为编码器函数,默认为null,表示不对内容编码,我们可以自己指定一个编码器(要求该函数返回的是一个字符串),这样在每次write()一行数据时会自动调用该函数进行预处理

以下是读取数据过程中的一些说明:

  • 当读取到一行数据时,会触发data事件
  • 调用s.next()来读取下一行数据,如果在初始化readLine()时指定了autoNext=true,则可省略
  • 当到达流末尾时,所有数据已读取完毕,会触发end事件

按行写流

var fs = require('fs');var writeLineStream = require('lei-stream').writeLine;// writeLineStream第一个参数为ReadStream实例,也可以为文件名var s = writeLineStream(fs.createWriteStream('./myfile.txt'), {  // 换行符,默认\n  newline: '\n',  // 编码器,可以为函数或字符串(内置编码器:json,base64),默认null  encoding: function (data) {    return JSON.stringify(data);  },  // 缓存的行数,默认为0(表示不缓存),此选项主要用于优化写文件性能,当数量缓存的内容超过该数量时再一次性写入到流中,可以提高写速度  cacheLines: 0});// 写一行s.write(data, function () {  // 回调函数可选  console.log('wrote');});// 结束s.end(function () {  // 回调函数可选  console.log('end');});

说明:

  • readLine()相类似,调用writeLine()时的第一个参数也可以是一个字符串,此时程序会自动调用fs.createWriteStream()来创建一个WriteStream
  • writeLine()的第二个参数为一些选项,其中newLine选项要保持与readLine()时 的newLine一致;encoding选项则刚好跟readLine()的相反;cacheLines选项表示缓存的数据行数,设置一个较大的值时可以一定程度提高写入性能,但也会增加写入延时,在下文将详细介绍
  • 执行s.write()来写入一行数据
  • 执行s.end()来结束写入

控制读写速度

实验

我们在使用fs.createReadStream()创建一个读文件流后,文件内容便源源不断地被读取出来,不断地触发data事件。然后在ReadStreamdata事件里面处理,并写入到WriteStream中。然而,大多数情况下读文件的速度总比写文件的速度快,这样便导致大量的数据被积压在内存中,当要读取的文件很大时,甚至会导致因占用内存太多而导致整个Node.js进程崩溃。

以下是我通过lei-stream编写的一个例子,按行读取数据并写入到另一个文件中(在写入文件时不等待写入完成即刻执行next()来读取下一行,用于模拟不限制读取速度):

var readLine = require('lei-stream').readLine;var writeLine = require('lei-stream').writeLine;// 一个几百M的文本文件var inputFile = '/Volumes/Works/data/xh.txt';var outputFile = '/Volumes/Works/tmp/output.txt';var output = writeLine(outputFile);var counter = 0;var startTime = Date.now();function msToS (v) {  return parseInt(v / 1000, 10);}function getSpentTime () {  return Date.now() - startTime;}readLine(inputFile).go(function (data, next) {  counter++;  output.write(data);  if (counter % 10000 === 0) {    printSpeedInfo();  }  next();}, function () {  console.log('end');  output.end(function () {    console.log('done. total %s lines, spent %sS', counter, msToS(getSpentTime()));    printMemoryUsage();    process.exit();  });});// 打印进度function printSpeedInfo () {  var t = msToS(getSpentTime());  var s = counter / t;  if (!isFinite(s)) s = counter;  console.log('read %s lines, speed: %sL/S', counter, s.toFixed(0));}// 打印内存占用情况function printMemoryUsage () {  var info = process.memoryUsage();  function mb (v) {    return (v / 1024 / 1024).toFixed(2) + 'MB';  }  console.log('rss=%s, heapTotal=%s, heapUsed=%s', mb(info.rss), mb(info.heapTotal), mb(info.heapUsed));}setInterval(printMemoryUsage, 1000);

执行这个程序后,打印出来的结果如下:

read 210000 lines, speed: 210000L/Srss=102.86MB, heapTotal=77.64MB, heapUsed=58.09MB...rss=739.00MB, heapTotal=726.18MB, heapUsed=695.31MBrss=719.15MB, heapTotal=726.18MB, heapUsed=692.25MBrss=713.75MB, heapTotal=726.18MB, heapUsed=704.64MBdone. total 3722040 lines, spent 80Srss=709.11MB, heapTotal=726.18MB, heapUsed=695.46MB

从输出的结果中可以看出,程序启动一秒后内存占用即达到77.64MB,而在程序结束时内存占用已达到726.18MB,如果文件体积再增加一倍,估计整个程序是无法执行完成的。

为了验证限制读取速度是否有效,我将读取内容部分的程序改为这样:

readLine(inputFile).go(function (data, next) {  counter++;  output.write(data, next);  if (counter % 10000 === 0) {    printSpeedInfo();  }}, function () {  console.log('end');  output.end(function () {    console.log('done. total %s lines, spent %sS', counter, msToS(getSpentTime()));    printMemoryUsage();    process.exit();  });});

说明:在执行output.write()时,可以传入一个回调函数,当写入成功后执行此回调函数,再继续读取下一行数据。

重新运行程序,看到的结果如下:

read 30000 lines, speed: 30000L/Srss=45.11MB, heapTotal=28.18MB, heapUsed=11.11MBread 40000 lines, speed: 40000L/S...read 3720000 lines, speed: 41333L/Senddone. total 3722040 lines, spent 90Srss=62.54MB, heapTotal=45.16MB, heapUsed=16.80MB

虽然程序的执行时间由原来的80秒增加到90秒,但整个进程的内存占用稳定保持在45MB,因此即使要读取一个超大文件功能也不会受到影响。

原理

ReadAStream提供了两个函数用于控制流:

  • ReadStream.pause()暂停读取 参考文档
  • ReadStream.resume()重新开始读取 参考文档

当读取速度超出我们期望的值时,可以执行pause()先暂停,待时机符合时再执行resume()重新开始。以下是用来限制读取速度的实例:

var util = require('util');var events = require('events');var fs = require('fs');// 一个几百M的文本文件var inputFile = '/Volumes/Works/data/xh.txt';function ReadStreamThrottle (stream, speed) {  this._stream = stream;  this._readBytes = 0;  this._speed = speed;  this._ended = false;  this._readBytesSecond = 0;  this._lastTimestamp = Date.now();  this._paused = false;  var self = this;  // 检查速度是否太快  function isTooFast () {    var t = (Date.now() - self._lastTimestamp) / 1000;    var bps = self._readBytesSecond / t;    return bps > speed;  }  // 每隔一段时间检查速度  function checkSpeed () {    if (isTooFast()) {      self.pause();      // 直到平均速度放缓到预设的值时继续读流      var tid = setInterval(function () {        if (!isTooFast()) {          clearInterval(tid);          self.resume();        }      }, 100);    } else {      self.resume();    }  }  stream.on('data', function (chunk) {    self._readBytes += chunk.length;    self._readBytesSecond += chunk.length;    self.emit('data', chunk);    checkSpeed();  });  stream.on('end', function () {    self._ended = true;    self.emit('end');  });}util.inherits(ReadStreamThrottle, events.EventEmitter);ReadStreamThrottle.prototype.pause = function () {  this._paused = true;  this._stream.pause();};ReadStreamThrottle.prototype.resume = function () {  this._paused = false;  this._stream.resume();};// 读取文件,限制速度不大于10MB/Svar MB = 1024 * 1024;var s = new ReadStreamThrottle(fs.createReadStream(inputFile), MB * 10);var bytes = 0;var t = Date.now();s.on('data', function (c) {  bytes += c.length;  var spent = (Date.now() - t) / 1000;  console.log('read %s bytes, speed: %sMB/S', bytes, (bytes / MB / spent).toFixed(2));});s.on('end', function () {  console.log('end. total %s bytes', bytes);});

运行程序可以看到打印出以下结果:

read 133627904 bytes, speed: 10.00MB/Sread 133693440 bytes, speed: 10.00MB/Sread 133758976 bytes, speed: 9.92MB/Sread 133824512 bytes, speed: 9.93MB/Sread 133890048 bytes, speed: 9.93MB/Sread 133955584 bytes, speed: 9.94MB/Sread 134021120 bytes, speed: 9.94MB/Sread 134086656 bytes, speed: 9.95MB/Sread 134152192 bytes, speed: 9.95MB/Sread 134217728 bytes, speed: 9.96MB/Sread 134283264 bytes, speed: 9.96MB/Sread 134348800 bytes, speed: 9.97MB/Sread 134414336 bytes, speed: 9.97MB/Sread 134479872 bytes, speed: 9.98MB/Sread 134545408 bytes, speed: 9.98MB/Sread 134610944 bytes, speed: 9.98MB/Sread 134676480 bytes, speed: 9.99MB/Sread 134742016 bytes, speed: 9.99MB/Send. total 134742016 bytes

从结果中可以看出,读取速度并不是固定的10MB/S,而是在这个范围内不断变化。其原因是程序在读取文件时,每次都会读取一定长度的内容(比如64KB,这个与系统设置的缓冲区大小有关),因此我们采用一种简单的方法来控制读取速度:每次触发data事件时,计算每秒的读取速度,如果超过预设的值则暂停读取,并每隔100ms检查一次,直到平均速度在预设的范围内再重新读取。

优化写文件性能

实验

前文中提到,『大多数情况下读文件的速度总比写文件的速度快,这样便导致大量的数据被积压在内存中,当要读取的文件很大时,甚至会导致因占用内存太多而导致整个Node.js进程崩溃』,那为什么我们在复制超大文件时程序又没问题呢?

于是我编写了以下程序:

var fs = require('fs');var inputFile = '/Volumes/Works/data/xh.txt';var outputFile = '/Volumes/Works/tmp/output.txt';var input = fs.createReadStream(inputFile);var output = fs.createWriteStream(outputFile);input.on('data', function (chunk) {  output.write(chunk);});input.on('end', function () {  console.log('end');  output.end(function () {    printMemoryUsage();    process.exit();  });});// 打印内存占用情况function printMemoryUsage () {  var info = process.memoryUsage();  function mb (v) {    return (v / 1024 / 1024).toFixed(2) + 'MB';  }  console.log('rss=%s, heapTotal=%s, heapUsed=%s', mb(info.rss), mb(info.heapTotal), mb(info.heapUsed));}setInterval(printMemoryUsage, 1000);

说明:在读取文件的data事件中,直接将数据原样写入到另一个文件中,用于模拟简单的复制文件操作。

程序执行结果如下:

rss=64.89MB, heapTotal=10.28MB, heapUsed=3.78MBrss=82.43MB, heapTotal=11.26MB, heapUsed=3.97MBendrss=83.86MB, heapTotal=11.26MB, heapUsed=5.21MB

从结果中可以看出,在读取文件结束后,写文件操作也很快完成,而内存占用并没有太大起伏。

于是我将data事件部分改为以下代码:

input.on('data', function (chunk) {  chunk = chunk.toString();  var lines = chunk.split('\n');  lines.forEach(function (line) {    output.write(line + '\n');  });});

说明:将读取出来的数据拆分成多行,并按行调用write()写入到文件中,用于模拟前文转换数据的例子。

程序运行结果如下:

rss=117.18MB, heapTotal=91.43MB, heapUsed=62.23MBrss=194.33MB, heapTotal=157.35MB, heapUsed=130.03MBrss=262.67MB, heapTotal=213.45MB, heapUsed=193.70MBrss=330.55MB, heapTotal=267.58MB, heapUsed=238.85MBrss=408.13MB, heapTotal=329.58MB, heapUsed=300.90MBrss=482.32MB, heapTotal=391.58MB, heapUsed=367.01MBrss=529.28MB, heapTotal=455.54MB, heapUsed=424.50MBrss=484.03MB, heapTotal=509.67MB, heapUsed=480.32MBrss=460.43MB, heapTotal=565.77MB, heapUsed=539.37MBrss=490.33MB, heapTotal=620.88MB, heapUsed=590.47MBrss=502.39MB, heapTotal=675.99MB, heapUsed=649.05MBrss=479.86MB, heapTotal=726.18MB, heapUsed=699.68MBrss=829.57MB, heapTotal=734.05MB, heapUsed=698.78MBendrss=850.25MB, heapTotal=749.80MB, heapUsed=720.01MBrss=851.16MB, heapTotal=749.80MB, heapUsed=720.41MBrss=851.98MB, heapTotal=749.80MB, heapUsed=720.07MBrss=852.92MB, heapTotal=749.80MB, heapUsed=720.56MB...rss=754.59MB, heapTotal=749.80MB, heapUsed=716.82MBrss=764.16MB, heapTotal=749.80MB, heapUsed=714.73MBrss=763.31MB, heapTotal=749.80MB, heapUsed=721.34MBrss=762.20MB, heapTotal=749.80MB, heapUsed=725.75MB

由结果可以看出,在读取文件结束后,程序还运行了很长时间才完成了写文件操作,在此过程中内存占用不断地增加,并且很明显感觉到打印内存占用的速度越来越慢(本来应该是1秒作用的时间打印一次)。

是不是因为频繁的write()操作导致的呢?于是我又将data事件部分的代码改为这样:

input.on('data', function (chunk) {  chunk = chunk.toString();  var lines = chunk.split('\n');  output.write(lines.join('\n') + '\n');});

说明:考虑到有可能是因为data事件中对数据的处理导致写入缓慢,于是同样将读取出来的数据拆分成多行,但是写入时又将这些数据合并起来,只执行一次write()

程序运行结果如下:

rss=37.27MB, heapTotal=22.28MB, heapUsed=5.30MBrss=78.17MB, heapTotal=39.26MB, heapUsed=14.64MBrss=98.62MB, heapTotal=39.26MB, heapUsed=14.61MBendrss=100.35MB, heapTotal=39.26MB, heapUsed=15.00MB

由结果可以看出,在data事件中对数据的处理确实影响到了读文件的性能(全部读取完毕的时间由原来的2秒增加到3秒),另外内存占用也增加了,到结果与第一个例子中的简单复制文件相差不大。

由此可以确定,减少write()的次数确实能提高写文件的速度。

于是,在lei-stream模块中,增加了一个新的选项cacheLines用于指定缓存的行数,当执行write()时并不会马上将结果写入到流中,仅当达到这个数量时再一次性写入。

我们将『控制读写速度』章节实验例子中的writeLine()改为以下代码(增加cacheLines选项):

var output = writeLine(outputFile, {  cacheLines: 10000});

重新运行程序,其结果如下:

read 3720000 lines, speed: 286154L/Sread 3720000 lines, speed: 286154L/Sread 3720000 lines, speed: 286154L/Sread 3720000 lines, speed: 286154L/Sread 3720000 lines, speed: 286154L/Sread 3720000 lines, speed: 286154L/Senddone. total 3722040 lines, spent 13Srss=64.83MB, heapTotal=45.16MB, heapUsed=15.29MB

由结果可以看出,程序执行时间从原来的90S下降到13S,并且内存占用仍然保持在45.16MB。

原理

首先看看Node.js源码中fs.ReadStreamwrite()里面是怎样的(源码):

WriteStream.prototype._write = function(data, encoding, cb) {  if (!util.isBuffer(data))    return this.emit('error', new Error('Invalid data'));  if (!util.isNumber(this.fd))    return this.once('open', function() {      this._write(data, encoding, cb);    });  var self = this;  fs.write(this.fd, data, 0, data.length, this.pos, function(er, bytes) {    if (er) {      self.destroy();      return cb(er);    }    self.bytesWritten += bytes;    cb();  });  if (!util.isUndefined(this.pos))    this.pos += data.length;};

由源码可以看出,每一次的write()实际上是直接调用fs.write()来写入文件的(WriteStream记录了当前文件的偏移量),当频繁调用write()来写入数据时,每一次都会创建用于fs.write()的回调函数,因此内存占用急剧升高和性能下降也就很合情合理了。

注意:lei-stream本身的设计是用于读写流,并不仅限于文件流,因此cacheLines选项并不总是能起到提升性能的作用,所以把cacheLines设计为需要手动开启

总结

前几天在CNode论坛看到有人提问『nodejs 如何加载大数据json文件比如2g ,3g,10g』,其实这里的问题除了文件很大之外,重点还是在『读取JSON字符串里面的某部分内容』。

一般情况下,在Node.js中读写大文件并没有什么高深的技术,主要注意以下几点:

  • 数据可被拆分成小块处理(比如一些日志文件,按行读写)
  • 控制读取速度,保持读写速度同步

本文中提到的lei-stream模块源码可从这里获得:https://github.com/leizongmin/node-lei-stream

0 0