Qual è il derivato della funzione di attivazione ReLU?


15

Qual è la derivata della funzione di attivazione ReLU definita come:

ReLU(x)=max(0,x)

Che dire del caso speciale in cui vi è una discontinuità nella funzione in ?x=0

Risposte:


17

Il derivato è:

f(x)={0if x<01if x>0

E non definito in .x=0

Il motivo per cui non è definito in è che la sua derivata sinistra e destra non sono uguali.x=0


1
01x=0

2
La convenzione è che drdx = 1 (x> 0)
neuroguy123

f(0)=12

3
@TomHale a proposito, vedi la risposta di Nouroz Rahman su quora.com/… : "[...] A mio avviso, nelle funzioni di libreria incorporate (ad esempio tf.nn.relu()
Jim
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.