Voglio scaricare un intero sito Web (con siti secondari). C'è qualche strumento per quello?
--convert-links
in wget) non riveleranno i siti che vengono rivelati solo inviando un modulo, tra le altre cose.
Voglio scaricare un intero sito Web (con siti secondari). C'è qualche strumento per quello?
--convert-links
in wget) non riveleranno i siti che vengono rivelati solo inviando un modulo, tra le altre cose.
Risposte:
Prova l'esempio 10 da qui :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
: attiva le opzioni adatte al mirroring.
-p
: scarica tutti i file necessari per visualizzare correttamente una determinata pagina HTML.
--convert-links
: dopo il download, converti i collegamenti nel documento per la visualizzazione locale.
-P ./LOCAL-DIR
: salva tutti i file e le directory nella directory specificata.--wait=seconds
argomento se vuoi essere più amichevole con il sito; attenderà il numero specificato di secondi tra i recuperi.
httrack è lo strumento che stai cercando.
HTTrack ti consente di scaricare un sito Web da Internet in una directory locale, creando ricorsivamente tutte le directory, ottenendo HTML, immagini e altri file dal server sul tuo computer. HTTrack organizza la relativa struttura di collegamento del sito originale.
Con wget
è possibile scaricare un intero sito Web, è necessario utilizzare -r
switch per un download ricorsivo . Per esempio,
wget -r http://www.google.com
WEBHTTRACK COPIA SITO WEB è uno strumento utile per scaricare un intero sito Web sul disco rigido per la navigazione offline. Avviare Ubuntu Software Center e digitare "webhttrack website copier" senza virgolette nella casella di ricerca. selezionalo e scaricalo dal centro software sul tuo sistema. avvia webHTTrack dal menu di avvio o dal menu di avvio, da lì puoi iniziare a goderti questo fantastico strumento per i download del tuo sito
Non conosco i sottodomini, ovvero i siti secondari, ma wget può essere utilizzato per acquisire un sito completo. Dai un'occhiata a questa domanda da superutente . Dice che è possibile utilizzare -D domain1.com,domain2.com
per scaricare diversi domini in un singolo script. Penso che puoi usare questa opzione per scaricare sottodomini, ad es-D site1.somesite.com,site2.somesite.com
Uso Burp : lo strumento ragno è molto più intelligente di wget e può essere configurato per evitare sezioni se necessario. La stessa Burp Suite è un potente set di strumenti per facilitare i test, ma lo strumento Spider è molto efficace.
È possibile scaricare l'intero sito Web Command:
wget -r -l 0 website
Esempio :
wget -r -l 0 http://google.com
Se la velocità è un problema (e il benessere del server non lo è), puoi provare puf , che funziona come wget ma può scaricare diverse pagine in parallelo. Non è, tuttavia, un prodotto finito, non mantenuto e orribilmente privo di documenti. Tuttavia, per scaricare un sito Web con molti file di piccole dimensioni, questa potrebbe essere una buona opzione.