In alcune occasioni ho addestrato reti neurali (reti di propagazione posteriore) con alcuni set di dati piuttosto complicati (posizioni di backgammon e OCR). Nel fare questo, sembra che gran parte del lavoro coinvolga la prova di diverse configurazioni delle reti, al fine di trovare la configurazione ottimale per l'apprendimento. Spesso c'è un compromesso tra reti di piccole dimensioni che sono più veloci da usare / apprendere e reti più grandi, in grado di rappresentare più conoscenza.
Quindi mi chiedo se sia possibile creare reti che siano sia veloci che grandi. Sto pensando che su una rete in cui ogni neurone non è completamente connesso dovrebbe essere più veloce da calcolare rispetto alle reti con piena connessione su tutti i livelli. Potrebbe essere l'allenamento che ha rilevato che determinati input non sono necessari per determinati neuroni e quindi rimuovere tali connessioni. Allo stesso modo l'addestramento potrebbe anche comportare l'aggiunta di nuovi neuroni se alcuni neuroni sembrano "sovraccarichi".
È qualcosa che è stato provato con qualche successo? Esistono classi di reti con questo tipo di comportamento?