In che modo le reti neurali artificiali e le reti neurali biologiche sono simili e diverse?


16

Ho sentito più volte che "Le reti neurali sono la migliore approssimazione che dobbiamo modellare il cervello umano" e penso che sia noto che le reti neurali siano modellate sul nostro cervello.

Sospetto fortemente che questo modello sia stato semplificato, ma quanto?

Quanto differisce, per esempio, la NN vaniglia da ciò che sappiamo del cervello umano? Lo sappiamo?


1
Ottima domanda Molto di ciò che si può dire, si dice qui psychology.stackexchange.com/questions/7880/…
Andrew Butler

1
Ho pensato che questa dovrebbe essere una domanda a cui ha risposto ai.SE. Inoltre sono curioso!
Andreas Storvik Strauman,

I neuroni artificiali e i neuroni biologici sono molto simili. Anche la forma delle loro connessioni è piuttosto simile, sebbene i neuroni biologici abbiano molte complicazioni nella loro interoperabilità che sembrano essere in gran parte sconosciute. Tuttavia, l'uso di questi neuroni è drasticamente diverso, vale a dire il motivo per cui sono combinati in reti e impiegati. Le ANN sono utilizzate per approssimare le funzioni e quindi per risolvere i problemi. Mentre solo Dio sa perché i BNN sono come sono e qual è il loro scopo in primo luogo. Quindi, non è una domanda molto interessante, penso ...
Evgeniy,

Risposte:


10

In che modo le reti neurali artificiali (ANN) sono diverse dalle reti neurali biologiche (BNN) dipende da cosa stai cercando. Sappiamo tutti che le ANN sono ispirate a quelle biologiche.
Differenze strutturali: in generale, una rete neurale è composta da quattro componenti:
inserisci qui la descrizione dell'immagine

  • neuroni
  • topologia: il percorso di connettività tra i neuroni
  • pesi
  • algoritmo di apprendimento

In caso di rete neurale artificiale lo stato iniziale e i pesi vengono assegnati in modo casuale . Mentre per le reti neurali biologiche i punti di forza delle connessioni tra i neuroni e la struttura delle connessioni non iniziano come casuali. Lo stato iniziale è derivato geneticamente ed è il sottoprodotto dell'evoluzione .
In BNN l'apprendimento proviene dalle interconnessioni tra una miriade di neuroni nel cervello. Queste interconnessioni cambiano configurazione quando il cervello sperimenta nuovi stimoli . Le modifiche comportano nuove connessioni, il rafforzamento delle connessioni esistenti e la rimozione di connessioni vecchie e non utilizzate .
Le RNA vengono addestrate da zero utilizzando una topologia fissa(ricordare le modifiche della topologia in caso di BNN), che dipende dal problema da risolvere. L'attuale meccanismo non modifica la topologia della RNA e i pesi vengono inizializzati e regolati in modo casuale tramite un algoritmo di ottimizzazione.

Un altro contrasto è nel numero di neuroni nella rete. Una tipica ANN è costituita da centinaia, o forse migliaia, di neuroni; la rete neurale biologica del cervello umano è composta da miliardi . Questo numero varia da animale a animale. Animale.
Puoi trovare di più qui e qui .


1
La forza della connessione deriva geneticamente? Sei sicuro?
DuttaA

2
Inizialmente, i punti di forza della connessione di un neonato sono determinati geneticamente. Successivamente cambiano principalmente sulla base di stimoli esterni.
Ugnes

2
Le reti neurali artificiali non si limitano alle topologie fisse (vedi NEAT, TWEANN, ecc.)
Andrew Butler,

1
Un ANN per il riconoscimento delle immagini ha sicuramente molti più di migliaia di neuroni. Molti milioni probabilmente.
maaartinus,

Ho scritto la risposta basandomi sulle ANN generali trovate oggi, senza considerare le migliori ANN. Con il miglioramento della tecnologia, anche le RNA stanno migliorando; avvicinandosi ai BNN. Grazie, AndrewButler e Maaartinus per menzionarli.
Ugnes,

5

Non sono vicini, non più!

Reti neurali [artificiali] vagamente ispirate alle connessioni che abbiamo precedentemente osservato tra i neuroni di un cervello. Inizialmente, probabilmente c'era l'intenzione di sviluppare l'ANN per cervelli biologici approssimativi. Tuttavia, le moderne RNA funzionanti che vediamo le loro applicazioni in vari compiti non sono progettate per fornirci un modello funzionale di un cervello animale. Per quanto ne so, non ci sono studi che affermano di aver trovato qualcosa di nuovo in un cervello biologico esaminando le connessioni e le distribuzioni di peso di un modello CNN o RNN.


LOL. Sono d'accordo. L'unica cosa che hanno in comune è questa. Sono circuiti nel senso più astratto della parola. Potrebbe esserci un'altra cosa. La natura ha provato un sacco di cose e siamo emersi. Quindi abbiamo provato un sacco di cose ed è emerso XNN (dove X è uno di A, C o N). Entrambe le reti sono il risultato di un gran numero di guasti.
FauChristian

3

L'affermazione comune secondo cui le reti neurali artificiali sono ispirate dalla struttura neurale del cervello è solo parzialmente vera.

È vero che Norbert Wiener, Claude Shannon, John von Neuman e altri hanno iniziato il percorso verso l'IA pratica sviluppando quello che poi chiamavano il cervello elettronico. È anche vero

  • Le reti artificiali hanno funzioni chiamate attivazioni,
  • Sono collegati in relazioni molti-a-molti come neuroni biologici e
  • Sono progettati per apprendere un comportamento ottimale,

ma questa è l'estensione della somiglianza. Le cellule nelle reti artificiali come le MLP (percetroni multistrato) o RNN (reti neurali ricorrenti) non sono come le cellule nelle reti cerebrali.

Il percettrone, il primo software pugnalato ad array di cose che si attivano, non era un array di neuroni. Era l'applicazione del feedback di base riguardante i gradienti, che era stata di uso comune in ingegneria sin da quando il governatore centrifugo di James Watt fu modellato matematicamente da Gauss. L'approssimazione successiva, un principio utilizzato da secoli, è stata utilizzata per aggiornare progressivamente una matrice di attenuazione. La matrice è stata moltiplicata per il vettore che alimenta una matrice di identiche funzioni di attivazione per produrre output. Questo è tutto.

La proiezione in una seconda dimensione su una topologia multistrato è stata resa possibile dalla consapevolezza che il Jacobian poteva essere usato per produrre un segnale correttivo che, se distribuito come feedback negativo agli strati in modo appropriato, poteva sintonizzare la matrice di attenuazione di una sequenza di i percettroni e la rete nel suo insieme converrebbero su comportamenti soddisfacenti. Nella sequenza dei percettroni, ogni elemento è chiamato strato. Il meccanismo di feedback è ora chiamato propagazione posteriore.

La matematica usata per correggere la rete si chiama discesa del gradiente perché è come un cieco disidratato che usa il gradiente del terreno per trovare l'acqua, e anche i problemi di farlo sono simili. Potrebbe trovare un minimo locale (punto basso) prima di trovare acqua dolce e convergere sulla morte piuttosto che sull'idratazione.

Le nuove topologie sono le aggiunte di lavori di convoluzione già esistenti utilizzati nel restauro di immagini digitali, nell'ordinamento della posta e nelle applicazioni grafiche per creare la famiglia di topologie della CNN e l'uso ingegnoso di quello che è come un equilibrio chimico dalla chimica del primo anno per combinare i criteri di ottimizzazione creando la famiglia di topologie GAN.

Deep è semplicemente sinonimo di numerosi nella maggior parte dei contesti di intelligenza artificiale. Talvolta influisce sulla complessità della topologia di livello superiore (sopra i prodotti a matrice vettoriale, le attivazioni e le convoluzioni).

Sono in corso ricerche attive da parte di coloro che sono consapevoli di quanto siano diverse queste reti profonde da ciò che gli scienziati neurali hanno scoperto decenni fa nel tessuto cerebrale dei mammiferi. E oggi vengono scoperti più differenziatori mentre i circuiti di apprendimento e la neurochimica nel cervello vengono studiati dalla prospettiva genomica.

  • Plasticità neurale ... cambiamento nella topologia dei circuiti a causa della crescita di dendrite e assioma, morte, reindirizzamento e altri morphing
  • Complessità topologica ... un gran numero di assiomi si incrociano senza interagire e sono deliberatamente schermati dal cross-talk (indipendente) molto probabilmente perché sarebbe svantaggioso lasciarli in connessione [nota 1]
  • Segnalazione chimica ... i cervelli dei mammiferi hanno dozzine di composti neuro-trasmettitori e neuro-regolatori che hanno effetti regionali sui circuiti [nota 2]
  • Organelli ... le cellule viventi hanno molte sottostrutture ed è noto che diversi tipi hanno relazioni complesse con la trasmissione del segnale nei neuroni
  • Altamente diversa forma di attivazione ... le attivazioni nelle comuni reti neurali artificiali sono semplicemente funzioni con scalari ordinali sia per la portata che per il dominio ... i neuroni dei mammiferi operano in funzione sia dell'ampiezza sia della relativa vicinanza temporale dei segnali in arrivo [nota 3]

[1] La topologia è ironicamente sia un sottoinsieme dell'architettura (nei settori della progettazione degli edifici, del provisioning delle reti, dell'analisi del WWW e delle reti semantiche), ma allo stesso tempo la topologia è, molto più dell'architettura, al centro radicale di entrambe le IA matematica e attualizzazione efficace nei sistemi di controllo

[2] Il ruolo della chimica può essere essenziale per l'apprendimento del comportamento sociale e riproduttivo che si interrompe con la propagazione delle informazioni sul DNA, collegando in modo complesso l'apprendimento a livello di un ecosistema e del cervello. Inoltre, l'apprendimento a lungo e breve termine divide l'apprendimento del cervello in due capacità distinte.

[3] L'impatto della tempistica dei segnali in arrivo sull'attivazione dei neuroni biologici è compreso in una certa misura, ma può avere un impatto molto maggiore dell'uscita dei neuroni. Può influire anche sulla plasticità e sulla chimica e gli organelli possono svolgere un ruolo in questo.

Sommario

Quello che fanno le librerie di machine learning è simulare tanto il cervello umano quanto le bambole Barbie e Ken simulano una vera coppia.

Nondimeno, stanno emergendo cose straordinarie nel campo dell'apprendimento profondo, e non mi sorprenderebbe se i veicoli autonomi diventassero completamente autonomi durante la nostra vita. Non consiglierei a nessuno studente di diventare uno sviluppatore. I computer probabilmente codificheranno molto meglio degli umani e degli ordini di grandezza più velocemente e forse presto. Alcuni compiti non sono del tipo con cui la biologia si è evoluta e i computer possono superare le capacità umane dopo solo alcuni decenni di ricerca, superando alla fine le prestazioni umane di diversi ordini di grandezza.


C'è una drastica differenza tra guidare un'auto e programmare un computer. Guidare un'auto è un compito ben definito, quindi potrebbe esserci un modo per esprimerlo come un problema di approssimazione della funzione, motivo per cui le reti neurali possono attivarsi. La funzione di usare i controlli dell'auto in base all'ingresso esiste e può essere approssimata. Mentre programmare un computer non è in realtà un compito, è una sequenza di decisioni che si prendono mentre si pensa a una situazione. È un'arte trasformare i problemi in problemi.
Evgeniy,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.