Il mio sito Web è gestito da Google Webspiders. Google è invitato a indicizzare il mio sito, ma a volte sta interrogando un tagcloud sul mio sito più velocemente di quanto il mio server web possa produrre i risultati, facendo esaurire le risorse del mio server web.
Come posso limitare l'accesso al mio server web in modo tale che i visitatori normali non siano interessati?
robots.txt non è un'opzione perché bloccherebbe l'indicizzazione dell'intero sito.
iptables -m recent
è complicato, perché alcune pagine contengono molte immagini o altri file di dati e su di esse si attivano "recenti" (in genere il mio aggregatore RSS, caricamento di immagini e feed).
iptables -m limit
ha lo stesso svantaggio e, soprattutto, non sono stato in grado di essere selettivo per indirizzo IP.
Come posso limitare i visitatori che fanno aumentare troppo il carico del mio server?
Sto eseguendo apache2 sul server Ubuntu in una VM VirtualBox.