一尘不染

如何在Python中逐行读取大型文本文件而不将其加载到内存中?

python

我需要逐行读取一个大文件。可以说该文件的大小超过5GB,我需要读取每一行,但是显然我不想使用readlines()它,因为它将在内存中创建一个非常大的列表。

下面的代码在这种情况下将如何工作?xreadlines自身是否一一读取到内存中?是否需要生成器表达式?

f = (line for line in open("log.txt").xreadlines())  # how much is loaded in memory?

f.next()  

另外,与Linux tail命令一样,我该怎么做才能以相反的顺序阅读?


阅读 814

收藏
2020-02-15

共1个答案

一尘不染

我提供此答案是因为Keith的提示虽然简洁,但并未明确关闭文件

with open("log.txt") as infile:
    for line in infile:
        do_something_with(line)
2020-02-15