Ho alcuni URL generati dinamici.
Posso usare regex per bloccare questi URL in un file robots.txt?
Ho alcuni URL generati dinamici.
Posso usare regex per bloccare questi URL in un file robots.txt?
Risposte:
Le espressioni regolari non sono valide in robots.txt, ma Google, Bing e alcuni altri bot riconoscono una corrispondenza del modello.
Dire se si desidera bloccare tutti gli URL che hanno un punto example
qualsiasi nell'URL, è possibile utilizzare una voce jolly *
User-agent: *
Disallow: /*example
Puoi anche utilizzare il simbolo del dollaro $ per specificare che gli URL devono terminare in questo modo. Quindi se vuoi bloccare tutti gli URL che finiscono con example
, ma non gli URL che avevano un example
altro posto nell'URL, puoi usare:
User-agent: *
Disallow: /*example$
Più approfondite informazioni per Google può essere trovato qui: robots.txt Specifiche , Bing qui: Come creare un file robots.txt e non v'è una guida interattiva su Moz qui