Nieinteraktywny GNU (można go wywołać ze skryptów, zadań cron, terminali bez obsługi X-Windows itp.) Sieciowy downloader, który pobiera zawartość z serwerów WWW. Nazwa pochodzi z World Wide Web i pobierz.
Zamknięte. To pytanie nie spełnia wytycznych dotyczących przepełnienia stosu . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Zaktualizuj pytanie, aby było na temat przepełnienia stosu. Zamknięte 2 lata temu . Popraw to pytanie Próbuję zainstalować wget w systemie MAC OS 10.11.1, ale po uruchomieniu pojawia ./configure --with-ssl=opensslsię ten błąd: …
Używam wget do pobierania wszystkich obrazów ze strony internetowej i działa dobrze, ale przechowuje oryginalną hierarchię witryny ze wszystkimi podfolderami, więc obrazy są rozrzucone. Czy istnieje sposób, aby po prostu pobrać wszystkie obrazy do jednego folderu? Składnia, której obecnie używam, to: wget -r -A jpeg,jpg,bmp,gif,png http://www.somedomain.com
Zamknięte . To pytanie jest oparte na opinii . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Zaktualizuj pytanie, aby można było na nie odpowiedzieć, podając fakty i cytaty, edytując ten post . Zamknięte 5 lat temu . Popraw to pytanie Czy są takie same, czy nie? Czy można zrobić …
Chcę pobrać treść z poniższej strony internetowej. Jeśli używam przeglądarki takiej jak Firefox lub Chrome, mogę uzyskać prawdziwą stronę internetową, którą chcę, ale jeśli użyję pakietu (lub wgetpolecenia) żądań Pythona, aby ją pobrać, zwraca całkowicie inną stronę HTML. Myślałem, że twórca witryny zrobił w tym celu kilka bloków, więc pytanie …
Próbuję wyprowadzić treść dokumentu i jego nagłówki na standardowe wyjście za pomocą wget przez wget -S -O - http://google.com ale pokazuje tylko dokument HTML. Dzięki UPD: Pracowałem nad tym wget --save-headers --output-document - http://google.com wget --version pokazuje zmodyfikowaną wersję GNU Wget 1.11.4 Red Hat
Muszę uzyskać końcowy adres URL po przekierowaniu strony, najlepiej za pomocą curl lub wget. Na przykład http://google.com może przekierowywać do http://www.google.com . Zawartość jest łatwa do pobrania (np. curl --max-redirs 10 http://google.com -L), Ale interesuje mnie tylko końcowy adres URL (w poprzednim przypadku http://www.google.com ). Czy można to zrobić, używając …
Próbowałem użyć cURL, ale wygląda na to, że domyślnie (Debian) nie jest skompilowany z obsługą HTTPS i nie chcę go samodzielnie budować. wget wydaje się, że obsługuje SSL, ale nie znalazłem informacji o tym, jak wygenerować żądanie HTTP OPTIONS za pomocą wget.
Próbuję pobrać archiwum z GitHub przy użyciu cURL , ale nie wydaje się, aby przekierowywało: $ curl --insecure https://github.com/pinard/Pymacs/tarball/v0.24-beta2 <html><body>You are being <a href="https://nodeload.github.com/pinard/Pymacs/tarball/v0.24-beta2">redirected</a>.</body></html> Uwaga: wget działa dla mnie: $ wget --no-check-certificate https://github.com/pinard/Pymacs/tarball/v0.24-beta2 Jednak chcę użyć cURL, ponieważ ostatecznie chcę rozpakować go w linii za pomocą czegoś takiego: $ curl …
Uruchamiam skrypt PHP przez cron przy użyciu Wget, z następującym poleceniem: wget -O - -q -t 1 http://www.example.com/cron/run Skrypt może przetworzyć maksymalnie 5-6 minut. Czy WGet zaczeka na to i da mu tyle czasu, ile potrzebuje, czy też minie limit czasu?
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.