Jak dobrze wypakować, powiedzmy, wiersze 20–45 z dużego pliku tekstowego. Oczywiście nieinteraktywnie!
Jak dobrze wypakować, powiedzmy, wiersze 20–45 z dużego pliku tekstowego. Oczywiście nieinteraktywnie!
Odpowiedzi:
możesz spróbować:
cat textfile | head -n 45 | tail -n 26
lub
cat textfile | awk "20 <= NR && NR <= 45"
aktualizacja:
Jak wskazał Mahomedalid, cat
nie jest to konieczne i trochę zbędne, ale zapewnia czyste, czytelne polecenie.
Jeśli ci cat
to przeszkadza, lepszym rozwiązaniem byłoby:
<textfile awk "20 <= NR && NR <= 45"
,
operatora zasięgu awk .
Jeszcze prościej:
sed -n '20,45p;45q' < textfile
Flaga -n wyłącza domyślne wyjście. „20,45” dotyczy wierszy od 20 do 45 włącznie. Polecenie „p” drukuje bieżącą linię. I q kończy pracę po wydrukowaniu linii.
q
polecenia (wszystko, począwszy od ;
) poprawiło dla mnie wydajność podczas wyodrębniania pojedynczej linii 26995107 z pliku 27169334 linii.
To nie jest odpowiedź, ale nie można jej opublikować jako komentarza.
Inny (bardzo szybki) sposób na to zasugerował Mikeserv tutaj :
{ head -n 19 >/dev/null; head -n 26; } <infile
Korzystając z tego samego pliku testowego co tutaj i tej samej procedury, oto kilka testów porównawczych (wyodrębnianie wierszy 1000020-1000045):
mikeserv :
{ head -n 1000019 >/dev/null; head -n 26; } <iplist
real 0m0.059s
Stefan :
head iplist -n 1000045 | tail -n 26
real 0m0.054s
Są to zdecydowanie najszybsze rozwiązania, a różnice są znikome (dla pojedynczego przejścia) (próbowałem z różnymi zakresami: kilka linii, miliony linii itp.).
Wykonanie tego bez rury może jednak stanowić znaczącą zaletę dla aplikacji, która musiała szukać w wielu zakresach linii w podobny sposób, na przykład:
for pass in 0 1 2 3 4 5 6 7 8 9
do printf "pass#$pass:\t"
head -n99 >&3; head -n1
done <<1000LINES 3>/dev/null
$(seq 1000)
1000LINES
... które drukuje ...
pass#0: 100
pass#1: 200
pass#2: 300
pass#3: 400
pass#4: 500
pass#5: 600
pass#6: 700
pass#7: 800
pass#8: 900
pass#9: 1000
... i czyta plik tylko raz.
Inne rozwiązania sed
/ awk
/ perl
odczytują cały plik, a ponieważ chodzi o duże pliki, nie są one zbyt wydajne. Wrzuciłem kilka alternatyw, które exit
lub q
uit po ostatniej linii w określonym zakresie:
Stefan :
awk "1000020 <= NR && NR <= 1000045" iplist
real 0m2.448s
vs.
awk "NR >= 1000020;NR==1000045{exit}" iplist
real 0m0.243s
dkagedal ( sed
):
sed -n 1000020,1000045p iplist
real 0m0.947s
vs.
sed '1,1000019d;1000045q' iplist
real 0m0.143s
Steven D :
perl -ne 'print if 1000020..1000045' iplist
real 0m2.041s
vs.
perl -ne 'print if $. >= 1000020; exit if $. >= 1000045;' iplist
real 0m0.369s
awk NR==1000020,NR==1000045 textfile
w twoim systemie.
ruby -ne 'print if 20 .. 45' file
python -c 'import fileinput, sys; [sys.stdout.write(line) for nr, line in enumerate(fileinput.input()) if 19 <= nr <= 44]'
? :-P Jest to coś, co Ruby, wzorowane na Perlu, zainspirowane przez awk / sed, może z łatwością zrobić.
Ponieważ sed i awk zostały już zrobione, oto rozwiązanie perla:
perl -nle "print if ($. > 19 && $. < 46)" < textfile
Lub, jak wskazano w komentarzach:
perl -ne 'print if 20..45' textfile
perl -ne'print if 20..45' textfile
awk NR==20,NR==45 textfile
też działa i czyta z łatwością.