Mam stronę internetową i chcę pobrać wszystkie strony / linki w tej witrynie. Chcę zrobić wget -r
pod tym adresem URL. Żaden z linków nie wykracza poza ten konkretny katalog, więc nie martwię się o pobranie całego Internetu.
Jak się okazuje, strony, które chcę, znajdują się za sekcją strony chronioną hasłem. Chociaż mógłbym użyć wget do ręcznego przeprowadzenia negocjacji dotyczących plików cookie, byłoby mi łatwiej po prostu „zalogować się” z przeglądarki i użyć wtyczki Firefox do rekurencyjnego pobierania wszystkiego.
Czy istnieje rozszerzenie lub coś, co pozwoli mi to zrobić? Wiele rozszerzeń koncentruje się na pobieraniu multimediów / zdjęć ze strony (heh. Heh.), Ale interesuje mnie cała zawartość - HTML i wszystko.
Propozycje?
Dzięki!
Edytować
DownThemAll wydaje się fajną sugestią. Czy można pobierać rekurencyjne ? Jak w, pobierz wszystkie linki na stronie, a następnie pobierz wszystkie linki zawarte na każdej z tych stron itp.? Czy w zasadzie odbieram kopię lustrzaną całego drzewa katalogów za pomocą linków? Trochę jak -r
opcja wget
?