2
Perché ReLU viene utilizzato come funzione di attivazione?
Le funzioni di attivazione vengono utilizzate per introdurre non linearità nell'uscita lineare del tipo w * x + bin una rete neurale. Che sono in grado di comprendere intuitivamente per le funzioni di attivazione come sigmoid. Comprendo i vantaggi di ReLU, che sta evitando i neuroni morti durante la backpropagation. …