Immagina di mostrare a una rete neurale l'immagine di un leone 100 volte e di etichettarla con "pericoloso", così apprende che i leoni sono pericolosi.
Ora immagina di averlo precedentemente mostrato milioni di immagini di leoni e in alternativa etichettato come "pericoloso" e "non pericoloso", in modo tale che la probabilità che un leone sia pericoloso è del 50%.
Ma quelle ultime 100 volte hanno spinto la rete neurale ad essere molto positiva nel considerare il leone "pericoloso", ignorando così gli ultimi milioni di lezioni.
Pertanto, sembra che ci sia un difetto nelle reti neurali, in quanto possono cambiare idea troppo rapidamente sulla base di prove recenti. Soprattutto se quella prova precedente era nel mezzo.
Esiste un modello di rete neurale che tiene traccia di quante prove ha visto? (O questo equivarrebbe a far diminuire il tasso di apprendimento di dove è il numero di prove?)