wget - narzędzie wiersza polecenia do pobierania treści w sposób nieinteraktywny (może być wywoływany ze skryptów, zadań cron, terminali bez obsługi X-Windows itp.)
Mam serwer w USA (Linux B) i mój domowy komputer (Linux A) i muszę pobrać plik ze strony C, Problem polega na tym, że pobieranie pliku bezpośrednio z A jest bardzo powolne, więc muszę pobrać plik po zalogowaniu się B i sftppobrać plik z A. Czy jest jakiś sposób, że …
Co znajduje się w formacie Netscape od wget„s cookies.txt? Muszę wykonać kopię lustrzaną witryny, która wymaga zalogowania. Korzystam z rozszerzenia Chrome, które zwraca pliki cookie w tym formacie, zapisuję je cookies.txt, importuję za pomocą wgetpolecenia, ale bezużyteczne, po prostu pobiera zawartość, jakbym wcale nie był zalogowany. Doceniam każdą pomoc.
Szukam sposobu, aby wyświetlić wszystkie adresy URL w łańcuchu przekierowań, najlepiej z powłoki. Znalazłem sposób, aby prawie to zrobić za pomocą curl, ale pokazuje tylko pierwszy i ostatni adres URL. Chciałbym je wszystkie zobaczyć. Musi istnieć sposób, aby to zrobić po prostu, ale nie mogę, aby moje życie znalazło, co …
Jak pobrać pełną stronę internetową, ale ignorując wszystkie pliki binarne. wgetma tę funkcję za pomocą -rflagi, ale pobiera wszystko, a niektóre witryny są po prostu zbyt duże dla maszyny o niskim zużyciu zasobów i nie jest to przydatne z konkretnego powodu, dla którego pobieram witrynę. Oto linia poleceń, której używam: …
Jeśli nie chcę ręcznie pobierać plików znajdujących się w określonej ścieżce adresu URL, jakie mam opcje? Używanie symboli wieloznacznych kończy się niepowodzeniem: $ wget 'http://www.shinken-monitoring.org/pub/debian/*deb' Warning: wildcards not supported in HTTP. .... To oczywiście zakłada, że nie znam z góry nazw plików.
Pobieram za wgetpomocą wolnego łącza. Czasami pasek postępu wygląda następująco: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Jakie jest znaczenie „+”?
Obecnie mam skrypt powłoki działający na serwerze Linux, który używa wget in oder do pobierania zdalnej strony internetowej. To z kolei jest wykonywane przez zadanie cron, które ma być uruchamiane w określonych momentach. Czy ktoś może potwierdzić, że dodanie tej -qopcji nie tylko zatrzyma wszystkie dane wyjściowe powracające do konsoli, …
Zastanawiałem się, czy wgetmożna było pobrać RPM, a następnie przepuścić przez sudo rpm -iinstalację, w jednej linii? Zdaję sobie sprawę, że mogę po prostu biegać: wget -c <URL> sudo rpm -i <PACKAGE-NAME>.rpm aby zainstalować pakiet, ale zastanawiałem się, czy można to zrobić w jednym wierszu, używając opcji quiet i zapisując …
Natknąłem się na tę stronę internetową, która mówi o tym. Więc kiedy pobierasz całą stronę internetową, pobierając wersję spakowaną gzip, jakie jest właściwe polecenie? Przetestowałem to polecenie, ale nie wiem, czy wget naprawdę dostaje wersję spakowaną gzip: wget --header="accept-encoding: gzip" -m -Dlinux.about.com -r -q -R gif,png,jpg,jpeg,GIF,PNG,JPG,JPEG,js,rss,xml,feed,.tar.gz,.zip,rar,.rar,.php,.txt -t 1 http://linux.about.com/
Jeśli spróbuję wget na stronie internetowej, otrzymam stronę w formacie HTML. Czy można pobrać tylko tekst pliku bez powiązanego HTML? (Jest to dla mnie wymagane, ponieważ niektóre strony HTML zawierają c program jest pobierany z tagami HTML. Muszę go otworzyć w przeglądarce i ręcznie skopiować tekst, aby utworzyć plik .c.)
Interesuje mnie jedno polecenie, które pobierałoby zawartość torrenta (i być może uczestniczył jako ziarno po pobraniu, dopóki go nie zatrzymam). Zwykle istnieje demon torrent-klient, który powinien zostać wcześniej uruchomiony osobno, oraz klient do kontroli (jak transmission-remote). Ale szukam prostoty wgetlub curl: daj jedno polecenie, po chwili uzyskaj wynik.
Próbuję pobrać pliki z tej witryny . Adres URL to: http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Kiedy używam tego polecenia: wget http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Dostaję tylko index.html?acc=GSE48191to, co jest rodzajem formatu binarnego. Jak mogę pobrać pliki z tej strony HTTP?
Znalazłem tylko puf (moduł pobierania równoległego adresu URL), ale nie mogłem zmusić go do odczytania adresów URL z pliku; coś jak puf < urls.txt też nie działa. System operacyjny zainstalowany na serwerze to Ubuntu.
Chciałbym w zasadzie potokować wgetpolecenie do pliku na zdalnym serwerze przez SSH. W jaki sposób mogę to zrobić? Wiem, że mógłbym po prostu podłączyć sshsię do serwera i poprosić go o pobranie pliku, ale wolałbym użyć komputera lokalnego, aby go pobrać i wysłać.
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.