Voglio usare Wget per salvare singole pagine Web (non ricorsivamente, non interi siti) come riferimento. Proprio come la "Pagina Web, completa" di Firefox.
Il mio primo problema è: non riesco a far sì che Wget salvi le immagini di sfondo specificate nel CSS. Anche se salvasse i file di immagine di sfondo, non credo che --convert-links convertisse gli URL di immagine di sfondo nel file CSS per puntare alle immagini di sfondo salvate localmente. Firefox ha lo stesso problema.
Il mio secondo problema è: se sulla pagina ci sono immagini che voglio salvare che sono ospitate su un altro server (come gli annunci), queste non verranno incluse. --span-hosts non sembra risolvere questo problema con la riga seguente.
Sto usando:
wget --no-parent --timestamping --convert-links --page-requisites --no-directories --no-host-directories -erobots=off http://domain.tld/webpage.html