Ho un sito Web e desidero scaricare tutte le pagine / i collegamenti all'interno di quel sito Web. Voglio fare un wget -r
su questo URL. Nessuno dei collegamenti va "al di fuori" di questa specifica directory, quindi non sono preoccupato di scaricare l'intera Internet.
A quanto pare, le pagine che desidero sono dietro la sezione protetta da password del sito Web. Mentre potrei usare wget per fare manualmente quella negoziazione dei cookie, sarebbe molto più facile per me semplicemente "accedere" dal browser e utilizzare alcuni plugin di Firefox per scaricare ricorsivamente tutto.
C'è un'estensione o qualcosa che mi permetterà di farlo? Molte estensioni si concentrano su come ottenere media / immagini dalla pagina (eh. Eh.) Ma sono interessato a tutto il contenuto - HTML e tutto.
Suggerimenti?
Grazie!
modificare
DownThemAll sembra un bel suggerimento. Può fare un download ricorsivo ? Come in, scaricare tutti i collegamenti sulla pagina, quindi scaricare tutti i collegamenti contenuti in ciascuna di tali pagine, ecc.? In modo che fondamentalmente rispecchi l'intero albero di directory seguendo i collegamenti? Un po 'come l' -r
opzione di wget
?