wget - utility da riga di comando per scaricare contenuti in modo non interattivo (può essere chiamato da script, cron job, terminali senza il supporto di X-Windows, ecc.)
Sto cercando di fare una richiesta di arricciatura a uno dei nostri server di sviluppo locale che eseguono un sito di sviluppo con un certificato SSL autofirmato. Sto usando il ricciolo dalla riga di comando. Ho visto alcuni post sul blog che menzionavano che è possibile aggiungere all'elenco dei certificati …
Sono desideroso di conoscere la differenza tra curle wget. Entrambi vengono utilizzati per ottenere file e documenti, ma quale sia la differenza fondamentale tra loro. Perché ci sono due programmi diversi?
Devo usare wgetper scaricare un file nella directory /var/cache/foobar/(quindi, ad esempio, se lo scarico stackexchange-site-list.txt, verrà scaricato in /var/cache/foobar/stackexchange-site-list.txt) È possibile? curlsarebbe anche un'opzione, ma preferirei non usarlo curl, poiché non è installato di default.
Vorrei scaricare ed estrarre un archivio in una determinata directory. Ecco come l'ho fatto finora: wget http://downloads.mysql.com/source/dbt2-0.37.50.3.tar.gz tar zxf dbt2-0.37.50.3.tar.gz mv dbt2-0.37.50.3 dbt2 Vorrei invece scaricare ed estrarre l'archivio al volo , senza averlo tar.gzscritto sul disco. Credo che questo sia possibile, eseguendo il piping dell'output di wgeta tar, e …
Voglio scaricare una cartella dal mio drive google usando il terminale? C'è un modo per farlo? Ho provato questo: $ wget "https://drive.google.com/folderview?id=0B-Zc9K0k9q-WWUlqMXAyTG40MjA&usp=sharing" Ma sta scaricando questo file di testo: folderview?id=0B-Zc9K0k9q-WdEY5a1BCUDBaejQ&usp=sharing. Esiste un modo per scaricare la cartella dell'unità Google dal terminale?
Provo a scaricare un file con wgete curlviene rifiutato con un errore 403 (vietato). Posso visualizzare il file utilizzando il browser Web sulla stessa macchina. Riprovo con l'agente utente del mio browser, ottenuto da http://www.whatsmyuseragent.com . Lo faccio: wget -U 'Mozilla/5.0 (X11; Linux x86_64; rv:30.0) Gecko/20100101 Firefox/30.0' http://... e curl …
Si prega di notare che non chiedo come . Conosco già opzioni come pve rsync -P. Voglio chiedere perché non cpimplementare una barra di avanzamento, almeno come una bandiera?
Devo scaricare un file usando wget, tuttavia non so esattamente quale sarà il nome del file. https://foo/bar.1234.tar.gz Secondo la pagina man , wget ti consente di spegnere e accendere quando si tratta di un sito ftp, tuttavia ho un URL http. Come posso usare un jolly mentre utilizzo una wget? …
Sono in una rete usando un proxy. Ho macchine che usano molti script qua e là accedendo l'un l'altro su HTTP. La rete è 10.0.0.0/8. Il mio proxy è 10.1.1.1:81, quindi l'ho impostato di conseguenza: export http_proxy=http://10.1.1.1:81/ Voglio escludere il mio intervallo a cui accedere con il proxy. Ho provato …
Questa domanda spiega come farlo curl. La risposta accettata sottolinea anche questo Se wget è disponibile, sarebbe molto più semplice. Ho guardato attraverso man wgetma mi sono perso lì dentro e non ho trovato un'opzione per seguire i reindirizzamenti.
Come posso riprendere un file parzialmente scaricato usando uno strumento da riga di comando di Linux? Ho scaricato parzialmente un file di grandi dimensioni, ovvero 400 MB su 900 MB a causa di un'interruzione dell'alimentazione, ma quando ricomincio a scaricarlo riprende da zero. Come posso iniziare da 400 MB stessi?
Supponiamo che list_of_urlsassomigli a questo: http://www.url1.com/some.txt http://www.url2.com/video.mp4 So come usarlo con: wget -i list_of_urls Ma cosa succede se il mio list_of_urlsha questo, e tutti restituiscono file corretti come PDF o video: http://www.url1.com/app?q=123&gibb=erish&gar=ble http://www.url2.com/app?q=111&wha=tcha&mac=allit Per un singolo file potrei fare questo: wget -O some.txt "http://www.url1.com/app?q=123&gibb=erish&gar=ble" Come si usa wgetper scaricare quell'elenco …
Ho un problema con il seguente comando wget: wget -nd -r -l 10 http://web.archive.org/web/20110726051510/http://feedparser.org/docs/ Dovrebbe scaricare in modo ricorsivo tutti i documenti collegati sul Web originale ma scarica solo due file ( index.htmlerobots.txt ). Come posso ottenere il download ricorsivo di questo Web?
Sto cercando di scaricare un file da sourceforge usando wget, ma come tutti sappiamo dobbiamo fare clic sul pulsante di download e quindi attendere che si scarichi automaticamente. come scarichi questo tipo di file usando wget? Sto cercando di scaricare questo: http://sourceforge.net/projects/bitcoin/files/Bitcoin/bitcoin-0.8.1/bitcoin-0.8.1-linux.tar.gz/download Ma fare una scommessa su quel link URL …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.