To pytanie zawiera już odpowiedź:
Jak wyodrębnić wszystkie zewnętrzne linki strony internetowej i zapisać je w pliku?
Jeśli są jakieś narzędzia wiersza poleceń, które byłyby świetne.
To było to samo pytanie tutaj , a odpowiedź sprawnie działała dla google.com, ale z jakiegoś powodu nie działa z np. youtube. Wyjaśnię: weźmy na przykład ta strona . Jeśli spróbuję uciekać
lynx -dump http://www.youtube.com/playlist?list=PLAA9A2EFA0E3A2039&feature=plcp | awk '/http/{print $2}' | grep watch > links.txt
następnie, w przeciwieństwie do używania go na google.com najpierw wykonuje zrzut Lynx, a następnie daje kontrolę do awk (z jakiegoś powodu z pustym wejściem), a na koniec nic nie zapisuje w pliku links.txt. Dopiero po tym wyświetli się niefiltrowany zrzut rysia, bez możliwości przeniesienia go gdzie indziej.
Z góry dziękuję!