Ho una sottodirectory che vorrei nascondere ai crawler web dei motori di ricerca.
Un modo per farlo è utilizzare un robots.txt
nella directory principale del server (il modo standard). Tuttavia, chiunque conosca l'URL del sito Web e abbia alcune conoscenze di base sul Web può accedere ai contenuti di robots.txt e individuare le directory non consentite.
Ho pensato a un modo per evitarlo, ma non sono sicuro che funzionerà.
Sia X
il nome della sottodirectory che voglio escludere. Un modo per impedire ai Web Crawler di indicizzare la X
directory e allo stesso tempo rendere più difficile per qualcuno identificare la X
directory da quella di root robots.txt
, è aggiungere robots.txt
la X
directory invece della directory root.
Se seguo questa soluzione ho le seguenti domande:
- I crawler Web troveranno
robots.txt
nella sottodirectory? (dato cherobots.txt
esiste già un e anche nella directory principale) Se
robots.txt
è nellaX
sottodirectory, allora dovrei usare percorsi relativi o assoluti ?:User-agent: * Disallow: /X/
o
User-agent: * Disallow: /