Esistono modelli computazionali di neuroni specchio?


17

Da Wikipedia:

Un neurone specchio è un neurone che si accende sia quando un animale agisce sia quando l'animale osserva la stessa azione eseguita da un altro.

I neuroni specchio sono collegati all'apprendimento dell'imitazione, una funzione molto utile che manca nelle attuali implementazioni AI del mondo reale. Invece di apprendere da esempi di input-output (apprendimento supervisionato) o da premi (apprendimento di rinforzo), un agente con neuroni specchio sarebbe in grado di imparare semplicemente osservando altri agenti, traducendo i loro movimenti nel proprio sistema di coordinate. Cosa abbiamo su questo argomento per quanto riguarda i modelli computazionali?

Risposte:


4

Questo articolo fornisce una descrizione dei neuroni specchio in termini di apprendimento hebbiano, un meccanismo che è stato ampiamente utilizzato nell'intelligenza artificiale. Non so se la formulazione fornita nell'articolo sia mai stata effettivamente implementata a livello computazionale.


0

A prescindere dal fatto che "io prenda la palla" o "prenda la palla", tutte le istanze memorizzate di "presa" e "palla" saranno attivate debolmente e "presa [la] palla" sarà fortemente attivato. Questo non si qualifica come 'mirroring'? Se sai anche che "Ho un braccio" e "Ha un braccio", ecc., Allora quando "prende alcuni blocchi", non è troppo difficile pensare che "Potrei prendere alcuni blocchi".


0

In realtà abbiamo molte cose su questa linea, la motion capture per l'istanza di film in 3D viene in mente quasi immediatamente. Il problema se ci penso è meno una situazione osservando un altro attore, i computer sono bravi nella relatività nel farlo già con la quantità di software di riconoscimento delle immagini che abbiamo, piuttosto è un problema di comprensione se un'azione ha prodotto un buon risultato come net che è qualcosa che i computer non possono fare in quanto non è un problema di rete a nodo singolo. Ad esempio, abbiamo già programmato un computer per comprendere il linguaggio umano (Watson, probabilmente), ma anche Watson non ha capito il concetto che dire "f ***" è un male. (Guarda in alto, è una storia divertente.)

Ma il punto è che gli algoritmi di apprendimento non sono un vero apprendimento in un certo senso in quanto un computer attualmente non ha il senso di "un buon risultato", quindi in questa fase l'osservazione dell'apprendimento è molto limitata in un certo senso al "vedere scimmia, fare la scimmia".

Forse la cosa più vicina di cui abbia mai letto con questo è stata la ricerca antincendio di robot di ricerca e salvataggio che erano su una rete e si sarebbero trasmessi tra loro quando uno di loro sarebbe stato distrutto poiché i robot avrebbero saputo che l'area era qualcosa che dovevano evitare.

Altrimenti, penso che questo sia il problema con l'apprendimento osservazionale. Una persona può osservare che colpire qualcuno di solito ti farà colpire, un computer osserverà e pappagalli l'azione, buona o cattiva.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.