Domande taggate «activation-function»


2
Che cos'è l'attivazione GELU?
Stavo esaminando il documento BERT che utilizza GELU (Gaussian Error Linear Unit) che indica l'equazione come che a sua volta è approssimato aGELU(x)=xP(X≤x)=xΦ(x).GELU(x)=xP(X≤x)=xΦ(x). GELU(x) = xP(X ≤ x) = xΦ(x).0.5x(1+tanh[2/π−−−√(x+0.044715x3)])0.5x(1+tanh[2/π(x+0.044715x3)])0.5x(1 + tanh[\sqrt{ 2/π}(x + 0.044715x^3)]) Potresti semplificare l'equazione e spiegare come è stata approssimata.



3
Come usare LeakyRelu come funzione di attivazione in sequenza DNN in keras? Quando si perfeziona meglio di Relu?
Come si usa LeakyRelu come funzione di attivazione nella sequenza DNN in keras? Se voglio scrivere qualcosa di simile a: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) Qual'è la soluzione? Metti LeakyRelu simile a Relu? La seconda domanda è: quali sono le migliori impostazioni generali per l'ottimizzazione dei parametri di LeakyRelu? Quando …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.