Httrack ha eseguito il backup di un sito?


1

Sto cercando di eseguire il backup di un sito con httrack ma non sta facendo quello che voglio.

Funziona già da 20 minuti e scarica quelle che sembrano essere immagini senza senso e file js da altri siti. La pagina che ho collegato era la pagina 'archivio' che ha un collegamento a tutte le pagine che vorrei. Quando cerco la cartella e avvio il file html di backup. Vedo quella pagina ma tutti i collegamenti sono collegamenti diretti al sito originale. Non sembra salvare le pagine a cui si collega. (cosa ha fatto negli ultimi 20 minuti ...)

Come faccio a dire a httrack di andare su una pagina specifica e fare il backup di tutte le pagine di quel dominio a cui questa pagina si collega?


Intendi HTTrack ( httrack.com )?
William Jackson,

Non ho mai avuto problemi con le impostazioni predefinite. È possibile pubblicare l'URL sul sito di cui si sta tentando il backup?
William Jackson,

@William: ho provato a eseguire la scansione di questa pagina specifica 2pstart.com/comic-archives e non ha cercato di ottenere le pagine collegate (nello stesso dominio). Ha memorizzato questa pagina specifica con collegamenti diretti ai fumetti e scaricato oltre 40 MB da www.widgetbox.com prima che lo fermassi. Questo è stato> 1 ora nella scansione.

La loro directory è aperta, quindi sono in grado di ottenere i fumetti. Ora voglio solo il testo per ogni 2pstart.com/comics Probabilmente posso scrivere un bot per il testo in un'ora, ma la pagina non sembrerebbe bella o uguale
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.