In che modo i siti di grandi dimensioni (ad esempio Wikipedia) gestiscono i robot che si trovano dietro un altro mascheratore IP? Ad esempio, nella mia università, tutti cercano Wikipedia, dandogli un carico significativo. Ma, per quanto ne so, Wikipedia può conoscere solo l'IP del router universitario, quindi se imposto un bot "scatenato" (con solo un piccolo ritardo tra le richieste), Wikipedia può vietare il mio bot senza vietare l'intera organizzazione? un sito può effettivamente vietare un IP dietro una rete organizzativa?