Perché i pesi iniziali delle reti neurali sono inizializzati come numeri casuali? Avevo letto da qualche parte che questo è fatto per "rompere la simmetria" e questo fa sì che la rete neurale impari più velocemente. In che modo rompere la simmetria rende l'apprendimento più veloce?
Inizializzare i pesi su 0 non sarebbe un'idea migliore? In questo modo i pesi sarebbero in grado di trovare i loro valori (positivi o negativi) più velocemente?
C'è qualche altra filosofia alla base dietro la randomizzazione dei pesi oltre alla speranza che sarebbero vicini ai loro valori ottimali quando inizializzati?