Vorrei scaricare una copia locale di una pagina Web e ottenere tutti i CSS, immagini, JavaScript, ecc.
Nelle discussioni precedenti (ad es. Qui e qui , che hanno entrambi più di due anni), vengono generalmente proposti due suggerimenti: wget -p
e httrack . Tuttavia, entrambi questi suggerimenti falliscono. Gradirei molto aiuto nell'uso di uno di questi strumenti per svolgere il compito; anche le alternative sono adorabili.
Opzione 1: wget -p
wget -p
scarica correttamente tutti i prerequisiti della pagina Web (css, images, js). Tuttavia, quando carico la copia locale in un browser Web, la pagina non è in grado di caricare i prerequisiti perché i percorsi di tali prerequisiti non sono stati modificati dalla versione sul Web.
Per esempio:
- Nel codice HTML della pagina,
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
sarà necessario correggere per puntare al nuovo percorso relativo difoo.css
- Nel file CSS,
background-image: url(/images/bar.png)
allo stesso modo dovrà essere modificato.
C'è un modo per modificare in wget -p
modo che i percorsi siano corretti?
Opzione 2: httrack
httrack
sembra un ottimo strumento per il mirroring di interi siti Web, ma non mi è chiaro come usarlo per creare una copia locale di una singola pagina. Ci sono molte discussioni nei forum httrack su questo argomento (ad es. Qui ) ma nessuno sembra avere una soluzione a prova di proiettile.
Opzione 3: un altro strumento?
Alcune persone hanno suggerito strumenti a pagamento, ma non riesco proprio a credere che non esista una soluzione gratuita.
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- solo questo ha funzionato per me. Credito: superuser.com/a/136335/94039