Voglio testare come si comporterebbe il mio sito quando viene sottoposto a spidering. Tuttavia, voglio escludere tutti gli URL contenenti la parola "pagina". Provai:
$ wget -r -R "*page*" --spider --no-check-certificate -w 1 http://mysite.com/
Il -R
flag dovrebbe rifiutare il pattern URL contenente la parola "pagina". Solo che sembra non funzionare:
Spider mode enabled. Check if remote file exists.
--2014-06-10 12:34:56-- http://mysite.com/?sort=post&page=87729
Reusing existing connection to [mysite.com]:80.
HTTP request sent, awaiting response... 200 OK
Come escludo il ragno di tale URL?