Sto eseguendo esperimenti sul set di validazione EMNIST usando le reti con RMSProp, Adam e SGD. Sto ottenendo una precisione dell'87% con SGD (tasso di apprendimento di 0,1) e dropout (0.1 drop prob) e regolarizzazione L2 (penalità 1e-05). Quando collaudo la stessa configurazione esatta con RMSProp e Adam, nonché il tasso di apprendimento iniziale di 0,001, sto ottenendo una precisione dell'85% e una curva di allenamento significativamente meno regolare. Non so come spiegare questo comportamento. Quale può essere la ragione dietro la mancanza di fluidità nella curva di allenamento e la minore precisione e tassi di errore più elevati raggiunti?