Come si usa LeakyRelu come funzione di attivazione nella sequenza DNN in keras? Se voglio scrivere qualcosa di simile a:
model = Sequential()
model.add(Dense(90, activation='LeakyRelu'))
Qual'è la soluzione? Metti LeakyRelu simile a Relu?
La seconda domanda è: quali sono le migliori impostazioni generali per l'ottimizzazione dei parametri di LeakyRelu? Quando le sue prestazioni sono significativamente migliori di Relu?