Pracując nad zupełnie innym skryptem, dowiedziałem się, że przy 29 milionach wierszy tekstu używanie seek()
i działanie na danych jest często szybsze niż w przypadku poszczególnych linii. Ten sam pomysł zastosowano w skrypcie poniżej: otwieramy plik i zamiast przechodzić przez pętlę poprzez otwieranie i zamykanie pliku (co może zwiększać obciążenie, nawet jeśli nie jest znaczące), utrzymujemy plik otwarty i wracamy do początku.
#!/usr/bin/env python3
from __future__ import print_function
import sys,os
def error_out(string):
sys.stderr.write(string+"\n")
sys.exit(1)
def read_bytewise(fp):
data = fp.read(1024)
print(data.decode(),end="",flush=True)
while data:
data = fp.read(1024)
print(data.decode(),end="",flush=True)
#fp.seek(0,1)
def main():
howmany = int(sys.argv[1]) + 1
if not os.path.isfile(sys.argv[2]):
error_out("Needs a valid file")
fp = open(sys.argv[2],'rb')
for i in range(1,howmany):
#print(i)
fp.seek(0)
read_bytewise(fp)
fp.close()
if __name__ == '__main__': main()
Sam skrypt jest dość prosty w użyciu:
./repeat_text.py <INT> <TEXT.txt>
W przypadku 3-wierszowego pliku tekstowego i iteracji 1000 idzie całkiem dobrze, około 0,1 sekundy:
$ /usr/bin/time ./repeat_text.py 1000 input.txt > /dev/null
0.10user 0.00system 0:00.23elapsed 45%CPU (0avgtext+0avgdata 9172maxresident)k
0inputs+0outputs (0major+1033minor)pagefaults 0swaps
Sam skrypt nie jest najbardziej elegancki, prawdopodobnie można go skrócić, ale spełnia swoje zadanie. Oczywiście dodałem tu i tam kilka dodatkowych bitów, takich jak error_out()
funkcja, która nie jest konieczna - to tylko mały, przyjazny dla użytkownika dotyk.