Perché le unità lineari rettificate sono considerate non lineari?


25

Perché le funzioni di attivazione delle unità lineari rettificate (ReLU) sono considerate non lineari?

f(x)=max(0,x)

Sono lineari quando l'input è positivo e dalla mia comprensione per sbloccare il potere rappresentativo delle reti profonde, le attivazioni non lineari sono un must, altrimenti l'intera rete potrebbe essere rappresentata da un singolo strato.


C'è una domanda simile fatta prima: stats.stackexchange.com/questions/275358/… anche se probabilmente non è un duplicato
Aksakal

Risposte:


33

Le RELU sono non linearità. Per aiutare il tuo intuito, considera una rete molto semplice con 1 unità di input x , 2 unità nascoste yi e 1 unità di output z . Con questa semplice rete potremmo implementare una funzione a valore assoluto,

z=max(0,X)+max(0,-X),

o qualcosa di simile alla funzione sigmoide comunemente usata,

z=max(0,X+1)-max(0,X-1).

Combinandoli in reti più grandi / utilizzando più unità nascoste, possiamo approssimare funzioni arbitrarie.

Funzione di rete RELU


Questi tipi di ReLus costruiti a mano verrebbero costruiti apriori e codificati come strati? In tal caso, come faresti a sapere che la tua rete richiedeva in particolare uno di questi ReLus appositamente costruiti?
Monica Heddneck,

4
@MonicaHeddneck È possibile specificare le proprie non linearità, sì. Ciò che rende una funzione di attivazione migliore di un'altra è un argomento di ricerca costante. Ad esempio, usavamo i sigmoidi, , ma poi a causa del problema del gradiente evanescente, le ReLUs sono diventate più popolari. Quindi spetta a te utilizzare diverse funzioni di attivazione non linearità. σ(X)=11+e-X
Tarin Ziyaee,

Come si approssimerebbe con ReLU fuori campione? eX
Aksakal,

1
@Lucas, Quindi fondamentalmente se combiniamo (+)> 1 ReLUs possiamo approssimare qualsiasi funzione, ma se semplicemente reLu(reLu(....))sarà sempre lineare? Inoltre, qui si xpassa a x+1, quello potrebbe essere pensato come Z=Wx+bdove W & b cambia per dare diverse varianti di questo tipo x& x+1?
anu
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.