Robots.txt è un file di testo utilizzato dai proprietari di siti Web per fornire istruzioni sui loro siti ai robot web. Fondamentalmente dice ai robot quali parti del sito sono aperte e quali parti sono chiuse. Questo si chiama il protocollo di esclusione dei robot.