Non mi piace il fatto che vedo molti errori 404 in access.log del mio server web. Ricevo questi errori perché i crawler provano ad aprire un file robots.txt , ma non sono riuscito a trovarne. Quindi voglio inserire un semplice file robots.txt che impedirà la visualizzazione degli errori 404 nel mio file di registro.
Qual è un file robots.txt minimo valido che consentirà la scansione di tutto il sito?