Ho provato il seguente comando:
$ wget -q --tries=10 --timeout=20 --spider http://google.com
(Da questo post SO . Voglio controllare la mia connessione Internet in bash.)
Ottengo il seguente output:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
Sembra OK, comunque eseguendo il cmd con sudo
, ricevo questo:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
Ho bisogno di questa linea in uno script, con cui chiamo sudo
e quindi fallisce sempre.
Qualcuno può dirmi il motivo di questo? Come posso aggirare questo?
wget
contro google.com non sembra essere un buon modo per verificare il funzionamento di una connessione Internet: ad esempio, potresti trovarti su una connessione che consente connessioni HTTP a Google ma vieta le cose che il tuo script vuole davvero fare ; o Google potrebbe vietare l'accesso a wget al proprio sito. Qual è il vero problema che hai, per il quale pensi che sudo wget blah
sia una potenziale soluzione?