Odpowiedzi:
Możesz użyć wget i uruchomić następującą komendę:
wget --recursive --level=1 --no-directories --no-host-directories --accept pdf http://example.com
Lub z krótkimi opcjami:
wget -r -l 1 -nd -nH -A pdf http://example.com
AKTUALIZACJA: Ponieważ aktualizacja mówi, że korzystasz z systemu Windows 7: użyj wget dla systemu Windows z cmd
monitu.
AKTUALIZACJA 2: Dla rozwiązania graficznego - choć może to być przesada, ponieważ dostaje także inne pliki, jest DownThemAll
-w 5
W przeglądarce naciśnij CTRL+ SHIFT+ Ji wprowadź
var pdflinks = []; Array.prototype.map. call (document.querySelectorAll („a [href $ = \". pdf \ "]"), funkcja (e, i) {if ((pdflinks || []). indexOf (e.href) == - 1) {pdflinks.push (e.href);}}); console.log (pdflinks.join („”));
Zwróci to w konsoli:
„ /superuser/tagged/somepdf1.pdf ” „ /superuser/tagged/somepdf2.pdf ” „ /superuser/tagged/somepdf3.pdf „
Teraz używa wget
z opcjami wiersza poleceńwget url1 url2 ...
Skopiuj i wklej to, otwórz konsolę, wget
naciśnij prawy przycisk myszy, aby wstawić zawartość schowka i naciśnij enter.
Aby użyć pliku do pobrania, połącz linie za pomocą „\ n” i użyj parametru w następujący sposób wget -i mydownload.txt
Zauważ, że większość innych programów do pobierania (GUI) również akceptuje, aby były wywoływane z listą adresów URL oddzielonych spacjami.
Mam nadzieję że to pomoże. Tak zazwyczaj to robię. Jest szybszy i bardziej elastyczny niż jakiekolwiek rozszerzenie z graficznym interfejsem użytkownika, którego muszę się nauczyć i pozostać zaznajomiony.
console.log('"' + pdflinks.join('" "') + '"')
bo inaczej nie dostaniesz cytowanych adresów URL
Jeśli chcesz pozostać w przeglądarce, napisałem rozszerzenie internetowe właśnie w tym celu - pracuję nad dodaniem możliwości zapisywania plików PDF artykułów naukowych z odpowiednio sformatowanymi tytułami, ale jeśli chcesz je pobrać wszystko jest idealne dla tego.
To się nazywa Tab Save i tutaj w sklepie internetowym Chrome . Nie musisz nawet wpisywać listy adresów URL, jeśli po prostu otworzysz je wszystkie na kartach (ale w przypadku dużej liczby plików może to spowolnić komputer, więc dodałem opcję dodania własnego).
Ostatnio użyłem do tego uGet (w systemie Windows). Ma GUI i możesz filtrować pliki, które zamierzasz pobrać.
Oszczędza próbując zapamiętać to wszystko
W przeglądarce Google Chrome można używać rozszerzeń takich jak:
Dzięki temu rozszerzeniu możesz pobierać wszystkie obrazy, filmy, pdf, doc i wszelkie inne pliki połączone z odwiedzaną stroną internetową.
Istnieje kilka narzędzi Python, które umożliwiają pobieranie linków PDF ze strony internetowej w oparciu o wyniki wyszukiwania Google.
Na przykład
google_dl
skrypt (zalecany).
Stosowanie:
./google_dl -s http://www.example.com/ -f pdf ""
gsrchDwn
skrypt (oparty na skrypcie neo ).
Stosowanie:
./gsrchDwn.py --query "site:http://www.example.com/" --ftype pdf
Uwaga: jestem opiekunem obu wymienionych skryptów.
Obie implementują xgoogle
bibliotekę Python. Moje rozwidlenie tej biblioteki jest oparte na pkrumins/xgoogle
wersji .
Powiązane: Wyszukiwanie w sieci z wiersza poleceń systemu Linux .