Risposte:
Puoi usare il wget
comando per scaricare la pagina e leggerla in una variabile come:
content=$(wget google.com -q -O -)
echo $content
Usiamo l' -O
opzione di wget
che ci permette di specificare il nome del file in cui wget
scarica il contenuto della pagina. Specifichiamo -
di ottenere il dump sullo standard output e di raccoglierlo nella variabile content
. Puoi aggiungere l' -q
opzione silenziosa per disattivare l'output di wget.
Puoi usare il comando curl anche per questo:
content=$(curl -L google.com)
echo $content
Dobbiamo utilizzare l' -L
opzione poiché la pagina che stiamo richiedendo potrebbe essere stata spostata. In tal caso, dobbiamo ottenere la pagina dalla nuova posizione. L' opzione -L
o --location
ci aiuta in questo.
src
attributo dell'elemento corretto, quindi scaricare quella pagina. Se installi tq , questo comando dovrebbe farlo:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
con l' -O-
opzione. Sta fallendo con errore -k can be used together with -O only if outputting to a regular file.
. È previsto?
Ci sono molti modi per ottenere una pagina dalla riga di comando ... ma dipende anche se vuoi il codice sorgente o la pagina stessa:
Se hai bisogno del codice sorgente:
con ricciolo:
curl $url
con wget:
wget -O - $url
ma se vuoi ottenere ciò che puoi vedere con un browser, lynx può essere utile:
lynx -dump $url
Penso che tu possa trovare così tante soluzioni per questo piccolo problema, forse dovresti leggere tutte le pagine di manuale per quei comandi. E non dimenticare di sostituire $url
con il tuo URL :)
In bocca al lupo :)
C'è il wget
comando o il file curl
.
Ora puoi usare il file che hai scaricato con wget. Oppure puoi gestire un flusso con curl.
Risorse:
Se hai installato LWP , fornisce un binario chiamato semplicemente " GET ".
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Transitional // EN"> <HTML> <HEAD> <META http-equiv = "Content-Type" content = "text / html; charset = utf-8"> <TITLE> Pagina Web di esempio </TITLE> </ HEAD> <Body> <p> Sei arrivato a questa pagina web digitando & quot; example.com & quot ;, & Quot; example.net & quot; & quot; example.org & quot o & quot; example.edu & quot; nel tuo browser web. </p> <p> Questi nomi di dominio sono riservati per l'uso nella documentazione e non sono disponibili per la registrazione. Vedi <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, sezione 3. </p> </ BODY> </ HTML>
wget -O-
, curl
e si lynx -source
comportano in modo simile.
Puoi usare curl
o wget
per recuperare i dati grezzi, oppure puoi usare w3m -dump
per avere una bella rappresentazione testuale di una pagina web.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.