Questo è il mio robots.txt :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Ma Strumenti per i Webmaster di Google mi dice che i robot stanno bloccando l'accesso alla Sitemap:
Si è verificato un errore durante il tentativo di accedere alla tua Sitemap. Assicurati che la tua Sitemap segua le nostre linee guida e sia possibile accedervi dalla posizione che hai fornito, quindi invia nuovamente: URL limitato da robots.txt .
Ho letto che Strumenti per i Webmaster di Google memorizza nella cache robots.txt , ma il file è stato aggiornato più di 36 ore fa.
Aggiornare:
Colpire la Sitemap TEST non fa sì che Google recuperi una nuova Sitemap. Solo la Sitemap INVIA è stata in grado di farlo. (A proposito, non vedo qual è il punto in 'test sitemap' a meno che non incolli la tua sitemap corrente lì - non recupera una nuova copia della sitemap dall'indirizzo che ti chiede di inserire prima del test - ma questo è una domanda per un altro giorno.)
Dopo aver inviato (invece di provare) una nuova Sitemap, la situazione è cambiata. Ora ricevo "URL bloccato da robots.txt . La sitemap contiene URL che sono bloccati da robots.txt ." per 44 URL. Esistono 44 URL nella Sitemap. Ciò significa che Google sta utilizzando la nuova Sitemap ma continua a seguire la vecchia regola dei robot (che ha tenuto tutto fuori dai limiti) Nessuno dei 44 URL è presente /wp-admin/
o /wp-includes/
(il che è comunque impossibile, poiché robots.txt è basato su al volo dallo stesso plugin che crea la sitemap).
Aggiornamento 2:
Peggio ancora: su una pagina dei risultati di ricerca di Google, la descrizione per la home page recita: "Una descrizione per questo risultato non è disponibile a causa del sito robots.txt - ulteriori informazioni". Tutte le altre pagine hanno descrizioni precise. Non esiste alcun indicizzazione di meta-blocco robots.txt o robot sulla homepage.
Sono bloccato.