Pytania otagowane jako csv

Pliki zawierające dane są rozmieszczane w tabeli, często z przecinkami (stąd wartości oddzielone przecinkami), do oddzielnych kolumn. Wiersze są oddzielone znakami nowej linii (ale nie wszystkie znaki nowej linii są separatorami wierszy, ponieważ pola mogą być umieszczane w cudzysłowach, aby zawierały separatory znaków nowej linii. Użyj tego tagu dla pełnoprawnych danych CSV, a nie prostszego przypadku jednego rekordu w wierszu lub całkowicie bez cytowania (użyj prostego csv dla tego rodzaju danych).



6
Usuń linie z pliku w zależności od linii znalezionych w innym pliku
Plik file1.txt zawiera linie takie jak: /api/purchase/<hash>/index.html Na przykład: /api/purchase/12ab09f46/index.html Plik file2.csv zawiera linie takie jak: <hash>,timestamp,ip_address Na przykład: 12ab09f46,20150812235200,22.231.113.64 a77b3ff22,20150812235959,194.66.82.11 Chcę filtrować plik2.csv usuwając wszystkie wiersze, w których wartość skrótu jest obecna, również w pliku1.txt. To znaczy: cat file1.txt | extract <hash> | sed '/<hash>/d' file2.csv lub coś w …

2
Ponowne indeksowanie dużego pliku CSV
Przejrzałem odpowiedzi w tym pomocnym wątku , ale mój problem wydaje się na tyle inny, że nie mogę wymyślić dobrej odpowiedzi (przynajmniej z sed). Mam duży plik CSV (ponad 200 GB) z wierszami, które wyglądają następująco: <alphanumerical_identifier>,<number> gdzie <alphanumerical_identifier>jest unikalny w całym pliku. Chciałbym utworzyć osobny plik, który zastąpi pierwszą …
11 files  sed  awk  csv 

3
Sformatuj dane wyjściowe polecenia „ps” bez białych znaków
Mam następującą pskomendę, aby uzyskać określone właściwości wszystkich uruchomionych procesów wraz z niektórymi właściwościami: ps --no-headers -exo "uname,ppid,pid,etime,%cpu,%mem,args" Chcę mieć sformatowany plik w formacie CSV, aby móc go przeanalizować. Uwaga: umieściłem argumenty na końcu, aby ułatwić parsowanie; Nie sądzę, ,aby istniał w żadnej innej kolumnie - popraw mnie, jeśli się …
11 csv  ps 


4
Usuń tylko przecinki obecne w podwójnych cudzysłowach
W pliku tekstowym chcę usunąć ,(przecinki), a także "(cudzysłowy) (tylko jeśli podwójne cudzysłowy zawierają liczby oddzielone przecinkami). 56,72,"12,34,54",x,y,"foo,a,b,bar" Oczekiwany wynik 56,72,123454,x,y,"foo,a,b,bar" Uwaga: powyższą linię pokazuję tylko jako przykład. Mój plik tekstowy zawiera wiele wierszy, jak wyżej, a liczby oddzielone przecinkami w podwójnych cudzysłowach powinny się różnić. To jest, 56,72,"12,34,54",x,y,"foo,a,b,bar" 56,92,"12,34",x,y,"foo,a,b,bar" …

5
Przetwarzanie rozdzielonego pliku tekstowego w bash jako argumenty polecenia
Mam podzielony plik tekstowy: field1,field2,field3 xield1,xield2,xield3 dield1,dield2,dield3 gield1,gield2,gield3 Każda z tych kolumn będzie parametrem programu i chciałbym, aby program był wywoływany dla każdej linii Miałem nadzieję na pętlę, coś w stylu: for $i in file command $field2 -x $field3 -PN -$field1 >> output done Jaki byłby najlepszy sposób na osiągnięcie …

1
awk nieoczekiwanie usuwa kropkę z łańcucha
Chcę dodać kolumnę (2. miejsce) do .csvpliku i chcę, aby wartości tej kolumny były ciągami znaków i były cytowane; Następujące polecenie dodaje kolumnę, ale bez cudzysłowów: awk -F"," 'BEGIN { OFS = "," } {$2="2.4.0"; print}' test.csv > output.csv Poniższe podejście obejmuje cudzysłowy, ale z jakiegoś powodu usuwa ostatnią .(kropkę) …
9 awk  csv 

1
Jak uzyskać wiersze, których n-ta kolumna zawiera m-tą kolumnę
Mam plik CSV zawierający domeny i wiadomości e-mail, takie jak to: site1.com,mail.site1.com site2.com,testmail.com site3.com,mx.site3.com site4.com,smtp.site4.com site5.com,foomail.com site6.com,barmail.com site7.com,webmail.site7.com site8.com,01mx.site8.com site9.com,foobarmail.com site10.com,mx-smtp222.site10.com Chcę uzyskać wiersze, w których kolumna wiadomości zawiera kolumnę domen tego samego wiersza. W powyższym przykładzie dane wyjściowe powinny wynosić: site1.com,mail.site1.com site3.com,mx.site3.com site4.com,smtp.site4.com site7.com,webmail.site7.com site8.com,01mx.site8.com site10.com,mx-smtp222.site10.com

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.