Esistono già molte risposte valide, ma se l'intero file si trova su una sola riga e si desidera ancora elaborare "righe" (anziché blocchi di dimensioni fisse), queste risposte non saranno di aiuto.
Il 99% delle volte, è possibile elaborare i file riga per riga. Quindi, come suggerito in questa risposta , è possibile utilizzare l'oggetto file stesso come generatore pigro:
with open('big.csv') as f:
for line in f:
process(line)
Tuttavia, una volta mi sono imbattuto in un file a riga singola molto grande (quasi), in cui il separatore di riga non era in realtà '\n'
ma '|'
.
- La lettura riga per riga non era un'opzione, ma avevo ancora bisogno di elaborarla riga per riga.
- Anche la conversione
'|'
in '\n'
prima dell'elaborazione era fuori questione, poiché alcuni dei campi di questo CSV contenevano '\n'
(input utente di testo libero).
- L'uso della libreria CSV è stato anche escluso perché il fatto che, almeno nelle prime versioni della libreria, è hardcoded per leggere l'input riga per riga .
Per questo tipo di situazioni, ho creato il seguente frammento:
def rows(f, chunksize=1024, sep='|'):
"""
Read a file where the row separator is '|' lazily.
Usage:
>>> with open('big.csv') as f:
>>> for r in rows(f):
>>> process(row)
"""
curr_row = ''
while True:
chunk = f.read(chunksize)
if chunk == '': # End of file
yield curr_row
break
while True:
i = chunk.find(sep)
if i == -1:
break
yield curr_row + chunk[:i]
curr_row = ''
chunk = chunk[i+1:]
curr_row += chunk
Sono stato in grado di usarlo con successo per risolvere il mio problema. È stato ampiamente testato, con varie dimensioni di pezzi.
Test suite, per chi vuole convincersi.
test_file = 'test_file'
def cleanup(func):
def wrapper(*args, **kwargs):
func(*args, **kwargs)
os.unlink(test_file)
return wrapper
@cleanup
def test_empty(chunksize=1024):
with open(test_file, 'w') as f:
f.write('')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1
@cleanup
def test_1_char_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
f.write('|')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
@cleanup
def test_1_char(chunksize=1024):
with open(test_file, 'w') as f:
f.write('a')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1
@cleanup
def test_1025_chars_1_row(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1025):
f.write('a')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1
@cleanup
def test_1024_chars_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1023):
f.write('a')
f.write('|')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
@cleanup
def test_1025_chars_1026_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1025):
f.write('|')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1026
@cleanup
def test_2048_chars_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1022):
f.write('a')
f.write('|')
f.write('a')
# -- end of 1st chunk --
for i in range(1024):
f.write('a')
# -- end of 2nd chunk
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
@cleanup
def test_2049_chars_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1022):
f.write('a')
f.write('|')
f.write('a')
# -- end of 1st chunk --
for i in range(1024):
f.write('a')
# -- end of 2nd chunk
f.write('a')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
if __name__ == '__main__':
for chunksize in [1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024]:
test_empty(chunksize)
test_1_char_2_rows(chunksize)
test_1_char(chunksize)
test_1025_chars_1_row(chunksize)
test_1024_chars_2_rows(chunksize)
test_1025_chars_1026_rows(chunksize)
test_2048_chars_2_rows(chunksize)
test_2049_chars_2_rows(chunksize)
f = open('really_big_file.dat')
è solo un puntatore senza alcun consumo di memoria? (Voglio dire che la memoria consumata è la stessa indipendentemente dalle dimensioni del file?) In che modo influirà sulle prestazioni se utilizzo urllib.readline () invece di f.readline ()?