La cosa di cui stavi leggendo è conosciuta come potenziale d'azione . È un meccanismo che regola il modo in cui le informazioni fluiscono all'interno di un neurone.
Funziona così: i neuroni hanno un potenziale elettrico, che è una differenza di tensione all'interno e all'esterno della cellula. Hanno anche un potenziale di riposo predefinito e un potenziale di attivazione. Il neurone tende a spostarsi verso il potenziale a riposo se viene lasciato solo, ma le attivazioni elettriche in entrata dai dendriti possono spostare il suo potenziale elettrico.
Se il neurone raggiunge una certa soglia di potenziale elettrico (il potenziale di attivazione), l'intero neurone e i suoi assoni di connessione attraversano una reazione a catena di scambio ionico all'interno / all'esterno della cellula che si traduce in una "ondata di propagazione" attraverso l'assone.
TL; DR: una volta che un neurone raggiunge un certo potenziale di attivazione, si scarica elettricamente. Ma se il potenziale elettrico del neurone non raggiunge quel valore, il neurone non si attiva.
Il cervello umano usa una specifica funzione di attivazione?
I neuroni IIRC in diverse parti del cervello si comportano in modo leggermente diverso e il modo in cui questa domanda è formulata suona come se si stesse chiedendo se esiste un'implementazione specifica dell'attivazione neuronale (al contrario di noi che la modelliamo).
Ma in generale si comportano relativamente simili tra loro (i neuroni comunicano tra loro tramite sostanze neurochimiche, le informazioni si propagano all'interno di un neurone attraverso un meccanismo noto come potenziale d'azione ...) Ma i dettagli e le differenze che causano potrebbero essere significativi.
Esistono vari modelli di neuroni biologici , ma il modello di Hodgkin-Huxley è il più notevole.
Nota anche che una descrizione generale dei neuroni non ti dà una descrizione generale della dinamica neuronale alla cognizione (capire un albero non ti dà una completa comprensione di una foresta)
Ma il metodo con cui le informazioni si propagano all'interno di un neurone è in genere abbastanza ben compreso come scambio ionico sodio / potassio.
(Potenziale di attivazione) sembra molto simile a ReLU ...
È come ReLU nel senso che richiedono una soglia prima che accada qualcosa. Ma ReLU può avere un output variabile mentre i neuroni sono tutto o niente.
Anche ReLU (e altre funzioni di attivazione in generale) sono differenziabili rispetto allo spazio di input. Questo è molto importante per il backprop.
Questa è una funzione ReLU, con l'asse X come valore di input e l'asse Y come valore di output.
E questo è il potenziale d'azione con l'asse X come tempo e Y come valore di output.