Come posso scaricare automaticamente più siti tramite Coda?


4

Ho diversi siti in Coda che vorrei scaricare di nuovo automaticamente quando lo dico. I siti sono gestiti in modo collaborativo e vorrei scaricare automaticamente una nuova copia dei siti. Sono aperto ad AppleScript, a un flusso di lavoro di Automator, a uno script di shell, a una combinazione di tutti e tre o qualsiasi altra cosa tu suggerisca. Come potrei fare per fare questo?

Modifica: posso scrivere uno script di shell per scaricare l'intero sito via FTP, quindi copiarlo nella mia cartella "Sites" e sovrascrivere i dati esistenti? Devo essere in grado di farlo per più di un sito, quindi ho bisogno di un modo per passare il nome di dominio, l'utente, la password e la directory in cui voglio copiarlo.


1
Ci sarebbe un sistema di controllo del codice sorgente (CVS, SVN, Git, Mercurial) che aiuterebbe lungo questo sito Web "gestito in modo collaborativo"?
Jason Salaz,

@VxJasonxV No, è un framework personalizzato.
daviesgeek,

1
Bella domanda @VxJasonxV. Se hai utilizzato SVN, ad esempio, gli aggiornamenti sarebbero facili, inoltre avrai il vantaggio di non avere i tuoi collaboratori che sovrascrivono casualmente gli aggiornamenti. È la strada da percorrere!
nthonygreen,

@Anthony Voglio solo scrivere uno script Applescript / shell per farlo. So che può essere fatto, semplicemente non ho le conoscenze di scripting per sapere come farlo.
daviesgeek,

Risposte:


3

Puoi facilmente usare wget per questo e scriverlo nel modo che preferisci. Ecco un breve esempio di come potresti usarlo per scaricare e sovrascrivere uno dei tuoi siti in una riga:

wget ~/Sites/domain/ ftp://[username]:[password]@ftp.example.com/www/

Quindi per fare più siti Web useresti:

wget -P ~/Sites/ -i sites.txt

E il tuo file di testo potrebbe assomigliare a questo:

ftp://username:password@ftp.site1.com/www/
ftp://username:password@ftp.site2.com/www/
ftp://username:password@ftp.site3.com/www/

Dalla pagina man di wget:

Recursive download:
  -r,  --recursive          specify recursive download.
  -l,  --level=NUMBER       maximum recursion depth (inf or 0 for infinite).
       --delete-after       delete files locally after downloading them.
  -k,  --convert-links      make links in downloaded HTML or CSS point to
                            local files.
  -K,  --backup-converted   before converting file X, back up as X.orig.
  -m,  --mirror             shortcut for -N -r -l inf --no-remove-listing.
  -p,  --page-requisites    get all images, etc. needed to display HTML page.
       --strict-comments    turn on strict (SGML) handling of HTML comments.

Recursive accept/reject:
  -A,  --accept=LIST               comma-separated list of accepted extensions.
  -R,  --reject=LIST               comma-separated list of rejected extensions.
  -D,  --domains=LIST              comma-separated list of accepted domains.
       --exclude-domains=LIST      comma-separated list of rejected domains.
       --follow-ftp                follow FTP links from HTML documents.
       --follow-tags=LIST          comma-separated list of followed HTML tags.
       --ignore-tags=LIST          comma-separated list of ignored HTML tags.
  -H,  --span-hosts                go to foreign hosts when recursive.
  -L,  --relative                  follow relative links only.
  -I,  --include-directories=LIST  list of allowed directories.
  --trust-server-names             use the name specified by the redirection
                                   url last component.
  -X,  --exclude-directories=LIST  list of excluded directories.
  -np, --no-parent                 don't ascend to the parent directory.

Freddo! Come posso passare a domini, ~ / Sites / domain, utenti e password?
daviesgeek,

È possibile creare un file di testo che li gestisca tutti. (risposta aggiornata)
L'L'l

Non ho tempo per provarlo, ma quando lo farò, ti farò sapere. Grazie mille!
daviesgeek,

sicuro. è molto semplice fare quello che vuoi; eventuali modifiche alla sintassi sarebbero minori.
L'L

1
@daviesgeek, quando hai detto 'Posso scrivere uno script di shell per scaricare l'intero sito' Ho pensato che volessi tutto questo. Vuoi solo file specifici o cartelle specifiche? È possibile eseguire il drill-down in directory più specifiche specificandole dopo /www/simili /www/path/to/file/. È questo che vuoi dire? Ho incluso alcuni wgetargomenti nella mia risposta originale che dovrebbero aiutare.
L'
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.