强悍的强悍的Python读取大文件的解决方案读取大文件的解决方案
今天小编就为大家分享一篇关于强悍的Python读取大文件的解决方案,小编觉得内容挺不错的,现在分享给大
家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
Python 环境下文件的读取问题,请参见拙文 Python基础之文件读取的讲解
这是一道著名的 Python 面试题,考察的问题是,Python 读取大文件和一般规模的文件时的区别,也即哪些接口不适合读取大
文件。
1. read() 接口的问题接口的问题
f = open(filename, 'rb')
f.read()
我们来读取 1 个 nginx 的日至文件,规模为 3Gb 大小。read() 方法执行的操作,是一次性全部读入内存,显然会造成:
MemoryError
...
也即会发生内存溢出。
2. 解决方案:转换接口解决方案:转换接口
(1)readlines() :读取全部的行,构成一个 list,实践表明还是会造成内存的问题;
for line in f.reanlines():
...
(2)readline():每次读取一行,
while True:
line = f.readline()
if not line:
break
(3)read(1024):重载,指定每次读取的长度
while True:
block = f.read(1024)
if not block:
break
3. 真正真正 Pythonic 的方法的方法
真正 Pythonci 的方法,使用 with 结构:
with open(filename, 'rb') as f:
for line in f:
<do something with the line>
对可迭代对象 f,进行迭代遍历:for line in f,会自动地使用缓冲IO(buffered IO)以及内存管理,而不必担心任何大文件的问
题。
There should be one – and preferably only one – obvious way to do it.
Reference
How to read large file, line by line in python
总结总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对我们的支持。
如果你想了解更多相关内容请查看下面相关链接
评论0
最新资源