Download ricorsivo (`wget -r`) equivalente per Firefox?


15

Ho un sito Web e desidero scaricare tutte le pagine / i collegamenti all'interno di quel sito Web. Voglio fare un wget -rsu questo URL. Nessuno dei collegamenti va "al di fuori" di questa specifica directory, quindi non sono preoccupato di scaricare l'intera Internet.

A quanto pare, le pagine che desidero sono dietro la sezione protetta da password del sito Web. Mentre potrei usare wget per fare manualmente quella negoziazione dei cookie, sarebbe molto più facile per me semplicemente "accedere" dal browser e utilizzare alcuni plugin di Firefox per scaricare ricorsivamente tutto.

C'è un'estensione o qualcosa che mi permetterà di farlo? Molte estensioni si concentrano su come ottenere media / immagini dalla pagina (eh. Eh.) Ma sono interessato a tutto il contenuto - HTML e tutto.

Suggerimenti?

Grazie!

modificare

DownThemAll sembra un bel suggerimento. Può fare un download ricorsivo ? Come in, scaricare tutti i collegamenti sulla pagina, quindi scaricare tutti i collegamenti contenuti in ciascuna di tali pagine, ecc.? In modo che fondamentalmente rispecchi l'intero albero di directory seguendo i collegamenti? Un po 'come l' -ropzione di wget?

Risposte:


7

DownThemAll non esegue il download ricorsivo. Cattura solo i collegamenti dalla pagina corrente. Viene scaricata solo la pagina HTML degli URL collegati. Le immagini e i media delle pagine collegate non vengono scaricati.


6

SpiderZilla dovrebbe farlo, ma è un po 'vecchio (2006).
Si basa sulla copiatrice del sito Web HTTrack .
Che ha versioni aggiornate per tutte le piattaforme.

C'è anche un altro componente aggiuntivo più vecchio che può consentire di plug-in ' wget' stesso (tra le altre cose).

Tuttavia, anche io penso che DownThemAll sia probabilmente una buona scelta.
Se sai cosa vuoi specchiare, selezionare i collegamenti giusti non dovrebbe essere un problema.
Inoltre, puoi sempre selezionare la casella di controllo "Tutto".

Quindi, +1, per DownThemAll se si desidera attenersi al browser.
E, utilizzare HTTrack se si desidera uno strumento autonomo (e wget non è utile).

Aggiornamento: potresti anche voler guardare i voti di HTTrack su questa domanda di taglie,
Come posso scaricare un intero sito web .


DTA non supporta la ricorsione
Hayden Thring,

4

È possibile utilizzare wget -rcon i cookie dal browser, estratti dopo l'autorizzazione.

Firefox ha l'opzione "Copia come cURL" nel menu contestuale della richiesta di pagina nella scheda Rete di Strumenti per gli sviluppatori Web, tasto di scelta rapida Ctrl + Maiusc + Q (potrebbe essere necessario ricaricare la pagina dopo aver aperto gli strumenti): immagine dello schermo

Sostituisci il flag di intestazione di curl -Hcon wget --headere hai tutte le intestazioni necessarie, inclusi i cookie, per continuare la sessione del browser con wget.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.