Python处理大文件

时间:2022-04-18 20:11:24

要将一个4G的文本文件切分开


读取文本文件大致有read() readline()readlines()三种

read()会将所有内容读入到一个字符串中

readlines()将所有内容按行读取,返回一个列表,列表中每个元素是一个字符串,一个字符串是一行内容,所以可利用如下格式处理

for line in f.readlines():	     # 1
	process(line)

其实在python2.2之后,文件也是一个对象,甚至可以这样处理

for line in f:			     # 2
	process(line)  

readline()每次读取一行

所以read()及readlines()效率高,但是需要内存能放的下

而后一种可以处理比较大的文件。

在处理时采用第1种方法和第2中方法,都只处理了不到200M的数据……

采用readline()

line = f.readline()                    #3
while line:
	process(line)
	line = f.readline()

同样只处理不到200M,很怪

最终,

BUFSIZE = 1024                        #4
lines = f.readlines(BUFSIZE)
while lines:
	for line in lines:
		process(line)
	lines = readlines(BUFSIZE)

全部数据处理完毕

但是将BUFSIZE改为10240,又只是处理了不到200M……

=====================================================================================================

自己新建了一个2G左右的文件,

采用readline()不断循环,可以

采用readlines()指定读取行数循环,可以

采用第1中第2中方法,提示内存不足

这才是正常的嘛

效率来说

采用第4种要比第3种快一些


---------------------------------------------------

估计源文件有错误,在文件中间有符号可以被识别为EOF。但是不知为何BUFSIZE为1024时又可以……

--------------------------------------------------