Quindi, quando guardo le reti neurali con funzione di base radiale, ho notato che le persone raccomandano sempre e solo l'uso di 1 strato nascosto, mentre con le reti neurali percettrici multistrato più strati sono considerati migliori.
Dato che le reti RBF possono essere addestrate con la versione della propagazione posteriore, ci sono dei motivi per cui le reti RBF più profonde non funzionano o che un livello RBF non può essere usato come il penultimo o primo livello in una rete MLP profonda? (Stavo pensando al penultimo strato in modo che potesse essenzialmente essere addestrato sulle funzionalità apprese dai precedenti livelli MLP)