Mam plik wejściowy podobny do następującego:
19 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
20 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
21 | 17 | 2 | 89 | C | 9 | 100 | 9 | PL | 2175
23 | 17 | 2 | 89 | C | 9 | 100 | 9 | PL | 2175
24 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
27 | 17 | 1 | 89 | C | 9 | 100 | 9 | PL | 2175
Chcę zsumować wartość samej kolumny 6, aw czwartej, piątej, dziewiątej i dziesiątej kolumnie chcę usunąć duplikat i wydrukować pojedynczą wartość jako PL
i 2175
.
19 | 17 | 1 |
{usuń duplikat i jedną wartość}|
{usuń duplikat i jedną wartość}|
{suma tutaj}|
{suma tutaj}|
{suma tutaj}|
{usuń duplikat }|
{usuń duplikat}
Próbowałem następujące:
grep 0000000089181
plik wejściowy| awk -F'|' '
{ sum_p_all += $5} ;
{ sum_quantity += $6} ;
{ mean_p_unit = sum_p_all/sum_quantity} ;
{ sum_p_all2 = sum_p_all * 100} ;
{ mean_p_unit2 = mean_p_unit * 100}
END { print sum_p_all2 " " sum_quantity " " mean_p_unit2 }'
0111
, każda wartość w kolumnie 2 jest1774
, każda wartość w kolumnie 3 zaczyna się0000000
i tak dalej. To sprawia, że bardzo trudno jest spojrzeć na wartości i zobaczyć, które z nich są takie same, a które inne. Próbowałem usunąć niepotrzebne powielanie, pozostawiając tylko niezbędne dane. Sprawdź, czy nie uszkodziłem pytania.