摘要:让我们看一个示例,展示在内存消耗方面,采用流的编程思路带来的巨大优越性。
本文分享自华为云社区《使用 Node.js Stream API 减少服务器端内存消耗的一个具体例子》,作者:Jerry Wang 。
HTTP 响应对象(上面代码中的 res)也是一个可写流。这意味着如果我们有一个表示 big.file 内容的可读流,我们可以将这两个相互连接起来,并在不消耗约 400 MB 内存的情况下获得几乎相同的结果。 Node 的 fs 模块可以使用 createReadStream 方法为我们提供任何文件的可读流。 我们可以将其通过管道传递给响应对象。
让我们看一个示例,展示在内存消耗方面,采用流的编程思路带来的巨大优越性。
我们先创建一个大文件:
fs 模块可用于使用流接口读取和写入文件。 在上面的示例中,我们通过一个循环写入 100 万行的可写流,向该 big.file 写入数据。
运行上面的代码会生成一个大约 400 MB 的文件。
这是一个简单的 Node Web 服务器,旨在专门为 big.file 提供服务:
启动该服务器,其消耗的初始内存为 8 MB 左右。
使用浏览器访问服务器之后,内存消耗跃升至 434.8 MB。
我们基本上将整个 big.file 内容放在内存中,然后再将其写入响应对象。 这是非常低效的。
HTTP 响应对象(上面代码中的 res)也是一个可写流。 这意味着如果我们有一个表示 big.file 内容的可读流,我们可以将这两个相互连接起来,并在不消耗约 400 MB 内存的情况下获得几乎相同的结果。
Node 的 fs 模块可以使用 createReadStream 方法为我们提供任何文件的可读流。 我们可以将其通过管道传递给响应对象:
我们现在访问上述重新实现过的服务器,发现内存消耗量大大降低了。
这是因为,当客户端请求该大文件时,我们一次将其流式传输一个块,这意味着我们根本不会将其整个的庞大文件内容缓冲在内存中。 内存使用量增加了大约 25 MB,仅此而已。
我们可以把测试场景设计得更极端一些:用 500 万行而不是 100 万行重新生成 big.file,这将使文件超过 2 GB,这实际上大于 Node.js 中的默认缓冲区限制。
如果尝试使用 fs.readFile 提供该文件,则默认情况下会出现 out of memory 的错误。
但是使用 fs.createReadStream,将 2 GB 的数据流式传输到请求者完全没有问题,而且最重要的是,进程内存使用情况大致相同。