Chciałbym monitorować duży plik dziennika (blisko 1 GB) pod kątem błędów. Chcę, aby było to blisko czasu rzeczywistego (kilka sekund opóźnienia jest w porządku). Mój plan to wykorzystanie tail -f | grep
. Czy są jakieś problemy z wydajnością przy stosowaniu takiej metody, gdy jest ona uruchomiona przez długi czas, np. Od zera do 1 GB? Czy istnieją jakieś standardowe praktyki stosowane do takiego monitorowania. Zauważ, że chciałbym to zrobić za pomocą standardowych poleceń unix dostępnych w systemie Solaris 10.
Jeśli to możliwe, mój plik nawet przewraca się i mam jeszcze jeden problem do rozwiązania :). using tail -F
( --follow=name
) nie jest dla mnie opcją, ponieważ -F
nie jest obsługiwane na serwerze, na którym chcę to uruchomić. Moim planem jest użycie skryptu, który uruchomi ten ogon i sonduje, aby sprawdzić, czy plik jest zwinięty. Jeśli tak, zabij ogon i uruchom go ponownie. Jakieś lepsze podejście?
tail
”, prawda?