Come posso impedire un'intera directory con robots.txt?


19

Ho due siti su cui sto attualmente lavorando, un carrello e un altro acquirente. Entrambi hanno lo stesso nome di dominio, quindi ad esempio

http://example.com/first_url 
http://example.com/second_url 

Entrambi questi URL hanno tonnellate di pagine sottostanti

http://example.com/first_url/product1
http://example.com/first_url/product2 
http://example.com/first_url/product3

http://example.com/second_url/product1
http://example.com/second_url/product2 
http://example.com/second_url/product3

Come posso impedire l'URL principale /first_urle /second_urlanche tutte le sottopagine e le sottodirectory? Stavo pensando a qualcosa del genere, ma non so se funziona o meno e se è stata la sintassi corretta

Disallow: /first_url/*/
Disallow: /second_url/*/

1
Penso che la tua sintassi sia giusta, ma non sono sicuro dell'extra /

Risposte:



-1

Puoi usarlo come predefinito robots.txt:

User-agent: *
Disallow: first_url/*
Disallow: second_url/*

La stella consentirà di non consentire tutto ciò che rientra in quella categoria. Puoi persino impedire una cosa specifica in quella categoria digitando quell'URL specifico.


4
Questo non è diverso dalla risposta accettata se non manca la barra iniziale. Non consentire le regole in robots.txt dovrebbe iniziare con una barra. Ecco come sono tutti gli esempi nella documentazione
Stephen Ostermiller
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.