Mam plik wejściowy podobny do następującego:
19 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
20 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
21 | 17 | 2 | 89 | C | 9 | 100 | 9 | PL | 2175
23 | 17 | 2 | 89 | C | 9 | 100 | 9 | PL | 2175
24 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
27 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
Chcę zsumować wartość samej kolumny 6, aw czwartej, piątej, dziewiątej i dziesiątej kolumnie chcę usunąć duplikat i wydrukować pojedynczą wartość jako PLi 2175.
19 | 17 | 1 |{usuń duplikat i jedną wartość}|{usuń duplikat i jedną wartość}|{suma tutaj}|{suma tutaj}|{suma tutaj}|{usuń duplikat }|{usuń duplikat}
Próbowałem następujące:
grep 0000000089181plik wejściowy| awk -F'|' '
{ sum_p_all += $5} ;
{ sum_quantity += $6} ;
{ mean_p_unit = sum_p_all/sum_quantity} ;
{ sum_p_all2 = sum_p_all * 100} ;
{ mean_p_unit2 = mean_p_unit * 100}
END { print sum_p_all2 " " sum_quantity " " mean_p_unit2 }'
0111, każda wartość w kolumnie 2 jest1774, każda wartość w kolumnie 3 zaczyna się0000000i tak dalej. To sprawia, że bardzo trudno jest spojrzeć na wartości i zobaczyć, które z nich są takie same, a które inne. Próbowałem usunąć niepotrzebne powielanie, pozostawiając tylko niezbędne dane. Sprawdź, czy nie uszkodziłem pytania.