Zamiana nieograniczonej liczby kolumn


12

Mam plik z kolumnami. Przykład poniżej:

a b c ... z  
1 2 3 ... 26

Chciałbym zamienić wszystkie kolumny, w których pierwszy staje się ostatnim, drugi staje się przedostatnim ... itd.

z y x ... a  
26 25 24 ... 1

Czy istnieje jedna wkładka ( awklub sed), która to robi?
Wiem, że można użyć, awkgdy jest tylko kilka kolumn, ale chciałbym móc to zrobić w plikach z tysiącami kolumn.

tacrobi to idealnie dla linii.
Chyba szukam odpowiednika dla kolumn.

rev nie działało dla mnie, ponieważ zamienia również zawartość w kolumnie.


perl -lane 'print join " ", reverse @F'

Odpowiedzi:


15
awk '{for(i=NF;i>0;i--)printf "%s ",$i;print ""}' file

Zbyt ciężką pracę wykonałem na tak proste zadanie. Zawsze prościej, lepiej. +1
Birei

10

Możesz to zrobić za pomocą małego skryptu python:

#!/usr/bin/env python

# Swaps order of columns in file, writes result to a file.
# usage: program.py input_file output_file

import sys, os

out = []

for line in open(sys.argv[1], 'r'):
    fields = line.split()
    rev = ' '.join(list(reversed(fields)))
    out.append(rev)

f = open(sys.argv[2], 'w')
f.write(os.linesep.join(out))

7

Jeśli nie masz nic przeciwko pythonowi, ten linijka odwróci kolejność kolumn oddzielonych spacjami w każdym wierszu:

paddy$ cat infile.txt 
a b c d e f g h i j k l
1 2 3 4 5 6 7 8 9 10 11 12
a e i o u
paddy$ python3 -c 'with open("infile.txt") as f: print("\n".join(" ".join(line.rstrip().split()[::-1]) for line in f))'
l k j i h g f e d c b a
12 11 10 9 8 7 6 5 4 3 2 1
u o i e a
paddy$ 

Powyższe działa również z python2.7:

paddy$ python2.7 -c 'with open("infile.txt") as f: print("\n".join(" ".join(line.rstrip().split()[::-1]) for line in f))'
l k j i h g f e d c b a
12 11 10 9 8 7 6 5 4 3 2 1
u o i e a
paddy$ 

Ta metoda jest najszybszym ze wszystkich anserów, które testowałem.
Peter.O,

4

Używanie w jeden sposób awk.

Treść infile:

a b c d e f g h i j k l
1 2 3 4 5 6 7 8 9 10 11 12
a e i o u

Uruchom następujące awkpolecenie:

awk '{
    ## Variable 'i' will be incremented from first field, variable 'j'
    ## will be decremented from last field. And their values will be exchanged.
    ## The loop will end when both values cross themselves.
    j = NF; 
    for ( i = 1; i <= NF; i++ ) { 
        if ( j - i < 1 ) { 
            break;
        } 
        temp = $j; 
        $j = $i; 
        $i = temp; 
        j--; 
    }
    print;
}' infile

Z następującym wynikiem:

l k j i h g f e d c b a
12 11 10 9 8 7 6 5 4 3 2 1
u o i e a

3

Jest to powolne, ale ma jedną funkcję odkupienia. Utrzymuje szerokość separatorów pól, gdy są one szersze niż pojedynczy znak. FWIW: Jeśli uruchomisz ten skrypt dwa razy, wynik będzie identyczny z oryginałem.

Oto skrypt.

awk '{ eix = length($0) 
       for( fn=NF; fn>0; fn--) { dix=eix
            while( substr($0,dix,1) ~ /[ \t]/ ) dix--
            printf "%s%s", substr($0,dix+1,eix-dix), $fn
            dix-=length($fn); eix=dix }
       print substr($0,1,dix)
    }' "$file"

Oto kilka porównań czasowych. Plik testowy zawierał 1 linię.

                      fields           fields     
                      10,0000          10,000,000

user11136 {python} | real  0.029s     real  3.235s
reversible? no     | user  0.032s     user  2.008s
                   | sys   0.000s     sys   1.228s

jmp {python}       | real  0.078s     real  5.045s
reversible? no     | user  0.068s     user  4.268s
                   | sys   0.012s     sys   0.560s

rush {awk}         | real  0.120s     real  10.889s
reversible? no     | user  0.116s     user   8.641s
                   | sys   0.008s     sys    2.252s

petero {awk}       | real  0.319s     real  35.750s
reversible? yes    | user  0.304s     user  33.090s
                   | sys   0.016s     sys    2.660s

3

Państwo może użyć tacpo prostu trzeba transponować wejście przed i po. Można to zrobić za pomocą kalkulatora arkusza kalkulacyjnego sci jego pomocnika psc:

< infile psc -S -r | sc -W% - | tac | psc -S -r | sc -W% - > outfile

Jak widać tutaj .

Działa to najlepiej, gdy wszystkie kolumny są wypełnione.

w pliku

 a b c d e f g h i  j  k  l
 1 2 3 4 5 6 7 8 9 10 11 12
 A B C D E F G H I  J  K  L

outfile

  l  k  j i h g f e d c b a
 12 11 10 9 8 7 6 5 4 3 2 1
  L  K  J I H G F E D C B A

Edytować

Jak zauważył PeterO, sc ma twardy limit 702 kolumn, więc jest to maksymalny rozmiar obsługiwany przez tę metodę.


1
Konwertuje liczby na zmiennoprzecinkowe (dla mnie) np. 1-> 1.00. Ponadto dostaję błędy dla linii o szerokości większej niż 702 pola. Wydaje się, że odnosi się to do limitu liczbowego 32768 ... ale jest dość szybki, asis.
Peter.O

Nie widzę konwersji zmiennoprzecinkowej, ale dodanie -Sdo pscpolecenia powinno interpretować wszystko jako ciągi znaków. Jeśli chodzi o limit kolumn 702, jest to twardy limit, ponieważ obsługiwane są tylko kolumny od A do ZZ (26 + 26 * 26), dodam komentarz na ten temat.
Thor

1
W rzeczywistości problem z liczbą zmiennoprzecinkową jest w porządku. Spojrzałem na nią dalej i odkryłem, że nie powinienem sprawdzać wyników, gdy śpieszę za drzwi. Punkty zmiennoprzecinkowe pojawiają się dopiero po osiągnięciu limitu 702 ... jest szybszy niż odpowiedzi pytona dla 1 wiersza z 702 pól, ale dla 100 wierszy staje się najwolniejszy ze wszystkich podanych metod :( .. Musi mieć krótszy czas uruchamiania niż python.
Peter.O

3

Ten potok jest szybszy niż najszybsza inna odpowiedź o znaczący czynnik (patrz wyniki). Wykorzystuje tri tac. Musi wykorzystywać 2 bajty ASCII (\ x00- \ x7F), które nie istnieją w twoich danych.

\x00jest zwykle dobrym wyborem, ale jest w \x01stanie użyć dowolnego bajtu ASCII, którego nie ma w danych.

W tym przykładzie SPACJA i TAB jako znaki ograniczników. Ograniczniki mogą być wielobajtowe lub pojedyncze. Separator wyjściowy to pojedyncza spacja.

Oto polecenie. Nazwa pliku pokazuje numberof fields_xnumber of lines

 <"$file" tr ' \t\n' '\0\0\1' |tr -s '\0' '\n' |tac |tr '\n' ' ' |tr '\1' '\n'

Jeśli chcesz / musisz sprawdzić nieużywane bajty, możesz wcześniej sprawdzić za pomocą tego opcjonalnego awkskryptu. Całkowity czas, nawet przy uruchomieniu tego opcjonalnego skryptu, jest nadal znacznie szybszy niż w przypadku innych metod (jak dotąd :) .. Oto skrypt wstępnego przetwarzania.

o=($(<"$file" char-ascii-not-in-stream)); x="${o[0]}"; y="${o[1]}"
<"$file" tr ' \t\n' "$x$x$y" |tr -s "$x" '\n' |tac |tr '\n' ' ' | tr '$y' '\n' >"$file".$user

Oto skrypt awk: char-ascii-not-in-stream

#!/usr/bin/awk -f
{c[$0]} END{for(i=0;i<=127;i++) {if(sprintf("%c", i) in c);else {printf "\\%03o ",i}}}

Drugi zestaw czasów dla tego skryptu obejmuje char-ascii-not-in-streamczas.

Peter.O {tr,tac,tr} ==== file_10_x10000
real    0m0.013s    0m0.015s
user    0m0.020s    0m0.020s
sys     0m0.008s    0m0.012s   

user11136 {python} ===== file_10_x10000
real    0m0.057s
user    0m0.048s
sys     0m0.008s

jmp {python} =========== file_10_x10000
real    0m0.160s
user    0m0.160s
sys     0m0.000s

rush {awk} ============= file_10_x10000
real    0m0.121s
user    0m0.120s
sys     0m0.000s

##############################################

Peter.O {tr,tac,tr} ==== file_1000_x1000
real    0m0.048s    0m0.059s
user    0m0.040s    0m0.040s
sys     0m0.040s    0m0.048s

user11136 {python} ===== file_1000_x1000
real    0m0.158s
user    0m0.136s
sys     0m0.028s

jmp {python} =========== file_1000_x1000
real    0m0.327s
user    0m0.320s
sys     0m0.008s

rush {awk} ============= file_1000_x1000
real    0m0.832s
user    0m0.820s
sys     0m0s012s

##############################################

Peter.O {tr,tac,tr} ==== file_1000000_x50
real    0m5.221s    0m6.458s
user    0m4.208s    0m5.248s
sys     0m2.624s    0m2.396s

user11136 {python} ===== file_1000000_x50
real    0m16.286s
user    0m10.041s
sys     0m5.148s

jmp {python} =========== file_1000000_x50
real    0m22.845s
user    0m20.705s
sys     0m1.140s

rush {awk} ============= file_1000000_x50
real    0m44.793s
user    0m43.583s
sys     0m0.848s

##############################################

0

Możesz to również zrobić bez wydruku f :

awk 'BEGIN{ORS=""} {for(k=NF;k>0;--k) {print $k; if (k==1) print "\n"; else print " "}} ' file
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.