Odpowiedzi:
Możesz użyć wget
polecenia, aby pobrać stronę i wczytać ją do zmiennej jako:
content=$(wget google.com -q -O -)
echo $content
Korzystamy z -O
opcji, wget
która pozwala nam określić nazwę pliku, do którego wget
zrzuca zawartość strony. Określamy, -
aby zrzut na standardowe wyjście i zbieraliśmy go do zmiennej content
. Możesz dodać -q
opcję cichą, aby wyłączyć wyjście wget.
Możesz użyć do tego polecenia curl, a także:
content=$(curl -L google.com)
echo $content
Musimy skorzystać z tej -L
opcji, ponieważ żądana przez nas strona mogła zostać przeniesiona. W takim przypadku musimy pobrać stronę z nowej lokalizacji. -L
Lub --location
opcja pomaga nam z tym.
src
atrybut odpowiedniego elementu, a następnie pobrać tę stronę. Jeśli zainstalujesz tq , to polecenie powinno to zrobić:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
z -O-
opcją. To kończy się błędem -k can be used together with -O only if outputting to a regular file.
. Czy jest to oczekiwane?
Istnieje wiele sposobów na pobranie strony z wiersza poleceń ... ale zależy to również od tego, czy chcesz uzyskać źródło kodu, czy samą stronę:
Jeśli potrzebujesz źródła kodu:
z lokami:
curl $url
z wget:
wget -O - $url
ale jeśli chcesz uzyskać to, co widzisz za pomocą przeglądarki, lynx może się przydać:
lynx -dump $url
Myślę, że możesz znaleźć tak wiele rozwiązań tego małego problemu, może powinieneś przeczytać wszystkie strony podręcznika dla tych poleceń. I nie zapomnij zastąpić $url
adresem URL :)
Powodzenia :)
Jest wget
polecenie lub curl
.
Możesz teraz użyć pliku pobranego za pomocą wget. Lub możesz obsłużyć strumień z zawijaniem.
Zasoby :
Jeśli masz zainstalowany LWP , udostępnia plik binarny o nazwie po prostu „ GET ”.
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Transitional // EN"> <HTML> <HEAD> <META http-equiv = "Content-Type" content = "text / html; charset = utf-8"> <TITLE> Przykładowa strona internetowa </TITLE> </HEAD> <body> <p> Ta strona internetowa jest dostępna po wpisaniu adresu „example.com”, „example.net”, „example.org” lub „example.edu” do przeglądarki internetowej. </p> <p> Te nazwy domen są zarezerwowane do użytku w dokumentacji i nie są dostępne Do rejestracji. Zobacz <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, sekcja 3. </p> </BODY> </HTML>
wget -O-
, curl
i lynx -source
zachowuj się podobnie.
Możesz użyć curl
lub, wget
aby pobrać surowe dane, lub możesz użyć, w3m -dump
aby uzyskać ładną tekstową reprezentację strony internetowej.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.