Ad esempio, adoro le decorazioni militari, ed ecco il nastro di servizio di Wikipedia , come posso scaricare tutte le immagini del nastro contemporaneamente invece di fare clic una per una e quindi selezionare "Salva immagine con nome"?
Ad esempio, adoro le decorazioni militari, ed ecco il nastro di servizio di Wikipedia , come posso scaricare tutte le immagini del nastro contemporaneamente invece di fare clic una per una e quindi selezionare "Salva immagine con nome"?
Risposte:
Usa Automator.app di OS X per trovare, estrarre e salvare le immagini dalla tua pagina web corrente. La combinazione di azioni necessarie sono:
Per ulteriori informazioni sull'uso di Automator, vedi Nozioni di base su Apple : Automator .
Un approccio alternativo consiste nell'utilizzare curl
tramite la riga di comando, qual è il modo più rapido e semplice per scaricare tutte le immagini da un sito Web .
Utilizzando wget
:
wget http://en.wikipedia.org/wiki/Service_Ribbon -p -A .jpg,.jpeg,.png -H -nd
-p
( --page-requisites
) scarica risorse come immagini e fogli di stile anche quando non lo usi -r
. -A
specifica i suffissi o i modelli in stile glob da accettare. -H
( --span-hosts
) segue collegamenti ad altri domini come upload.wikimedia.org
. -nd
( --no-directories
) scarica tutti i file nella directory corrente senza creare sottodirectory.
È possibile installare wget
con brew install wget
dopo l'installazione di Homebrew .
Puoi anche usare solo curl
:
curl example.tumblr.com | grep -o 'src="[^"]*.jpg"' | cut -d\" -f2 |
while read l; do curl "$l" -o "${l##*/}"; done
Download di immagini da Tumblr o Blogspot:
api="http://api.tumblr.com/v2/blog/example.tumblr.com/posts?type=photo&api_key=get from tumblr.com/api"
seq 0 20 $(curl -s $api | jq .response.total_posts) |
while read n; do
curl -s "$api&offset=$n" |
jq -r '.response.posts[].photos[].original_size.url'
done | awk '!a[$0]++' | parallel wget -q
curl -L 'http://someblog.blogspot.com/atom.xml?max-results=499' |
grep -io 'href="http://[^&]*.jpg' |
cut -d\; -f2 |
awk '!a[$0]++' |
parallel wget -q
parallel
?
Utilizzando Firefox (testato con v. 61), senza software aggiuntivo:
Trova la scheda multimediale della finestra Informazioni sulla pagina. Questo può essere trovato attraverso uno dei seguenti modi:
Seleziona tutti gli indirizzi delle immagini.
Puoi usare Firefox e Flashgot, un'estensione che fa esattamente quello che stai cercando.
Puoi trovare Flashgot sul sito ufficiale dei componenti aggiuntivi di Mozilla qui
Flashgot utilizza un download manager di tua scelta, quello integrato in Firefox, curl, wget o altri. Personalmente mi piace DownThemAll! .
Se usi Mac, prova "Cliche: Easy Web Image Collector" sul Mac App Store.
Secondo la descrizione dell'app,
"Il semplice ma potente raccoglitore di immagini Web per Mac. Cliche ti consente di raccogliere rapidamente e facilmente immagini Web con potenti strumenti utili. Basta navigare sul Web con Cliche. Tutte le immagini Web sono già pronte per te."
Per ulteriori informazioni, è possibile visitare il sito Web ufficiale: https://machelperprojects.wordpress.com/2015/05/08/cliche-easy-web-image-collector/