A quale scopo sarebbe servito lo sviluppo di AI che provano emozioni simili all'uomo?


19

In un recente articolo del Wall Street Journal , Yann LeCunn fa la seguente dichiarazione:

Il prossimo passo per raggiungere l'IA a livello umano è la creazione di macchine intelligenti, ma non autonome. Il sistema di intelligenza artificiale nella tua auto ti porterà a casa in sicurezza, ma non sceglierà un'altra destinazione una volta entrati. Da lì, aggiungeremo pulsioni di base, insieme a emozioni e valori morali. Se creiamo macchine che imparano come fanno i nostri cervelli, è facile immaginarle ereditare qualità simili a quelle umane e difetti.

Personalmente, ho generalmente preso la posizione secondo cui parlare di emozioni per intelligenze artificiali è sciocco, perché non ci sarebbe motivo di creare intelligenza artificiale che provi emozioni. Ovviamente Yann non è d'accordo. Quindi la domanda è: quale fine sarebbe servito facendo questo? Un'intelligenza artificiale ha bisogno di emozioni per essere uno strumento utile?


1
Possibile duplicato di Perché qualcuno dovrebbe voler simulare il processo decisionale emotivo all'interno di un'intelligenza artificiale? La risposta accettata ("Meh, sarà solo più facile per i programmatori umani mantenere i programmi di intelligenza artificiale") potrebbe non essere eccitante o meravigliosa, ma almeno sembra semi-sensibile e ragionevole.
Lasciato SE il 10_6_19,

C'è anche una possibilità alternativa: non vorremmo necessariamente sviluppare AI che provino emozioni simili all'uomo (perché allora sarebbero imprevedibili, dovremmo dare loro dei diritti, blah blah blah), ma che tecniche di AI più avanzate (come l'apprendimento profondo) svilupperà inavvertitamente AI che sperimentano emozioni simili all'uomo. Non è che li vogliamo, è che potrebbero venire comunque. Gli agenti di apprendimento del rinforzo artificiale contano moralmente? discute questa possibilità.
Lasciato SE il 10_6_19,

Risposte:


11

La risposta a questa domanda, a differenza di molti su questo consiglio, penso sia definitiva. No. Non abbiamo bisogno che l' IA abbia delle emozioni per essere utile, come possiamo vedere dalle numerose quantità di AI che già abbiamo che sono utili.

Ma per affrontare ulteriormente la domanda, non possiamo davvero dare le emozioni dell'IA. Penso che il più vicino che possiamo ottenere sarebbe "Possiamo fare in modo che questa IA si comporti come farebbe un essere umano se quell'essere fosse insert emotion?". Immagino, in un certo senso, che stia provando delle emozioni, ma è un'altra discussione.

E a che fine? L'unica ragione immediata che viene in mente sarebbe quella di creare compagni o interazioni più realistici, ai fini di videogiochi o altri divertimenti. Un obiettivo equo,
ma lungi dall'essere necessario. Anche considerando un robot di saluto intriso di intelligenza artificiale nell'atrio di un edificio, probabilmente vorremmo solo che si comportasse in modo cordiale.

Yann afferma che un'intelligenza artificiale super avanzata porterebbe a qualità e difetti più umani . Penso che sia più come se "conferisse alla nostra intelligenza artificiale qualità più umane o in altre parole difetti". Le persone hanno la tendenza ad agire irrazionalmente quando sono tristi o arrabbiate e per la maggior parte vogliamo solo un'intelligenza artificiale razionale.
Errare è umano, come si suol dire.

Lo scopo degli AI e degli algoritmi di apprendimento è quello di creare sistemi che agiscano o "pensino" come gli umani, ma meglio. Sistemi in grado di adattarsi o evolversi, facendo confusione il meno possibile. L'intelligenza artificiale emotiva ha usi, ma certamente non è un prerequisito per un sistema utile.


5

Penso che la domanda fondamentale sia: perché anche tentare di costruire un'intelligenza artificiale? Se tale obiettivo è chiaro, fornirà chiarezza sul fatto che abbia o meno un quoziente emotivo nell'intelligenza artificiale. Alcuni tentativi come "Paro" che sono stati sviluppati per motivi terapeutici richiedono che mostrino alcune emozioni umane. Ancora una volta, nota che "mostrare" le emozioni e "sentire" le emozioni sono due cose completamente diverse.

Puoi programmare qualcosa come paro per modulare i toni della voce o le contrazioni facciali per esprimere simpatia, affetto, compagnia o altro - ma mentre lo fa, un paro NON si immedesima con il suo proprietario - lo sta semplicemente falsificando eseguendo le manifestazioni fisiche di un'emozione. Non "sente" mai nulla di più vicino a ciò che quell'emozione evoca nel cervello umano.

Quindi questa distinzione è davvero importante. Per farti sentire qualcosa, deve esserci un soggetto autonomo indipendente che abbia la capacità di sentire. Il sentimento non può essere imposto da un agente umano esterno.

Quindi tornando alla domanda su quale scopo risolva - la risposta è davvero - Dipende. E il massimo che penso riusciremo mai a raggiungere con gli IA a base di silicone rimarrà il dominio delle rappresentazioni fisiche delle emozioni.


Tendo ad essere d'accordo. E forse il mio modo di pensare è troppo limitato, ma la maggior parte delle applicazioni dell'IA a cui penso non trarrebbe beneficio dal fatto che l'IA abbia delle emozioni. Beh, almeno penso di sì, seduto qui ora. Forse un giorno guarderò indietro e realizzerò che mi sbagliavo.
mindcrime

Richiedere che l'IA debba / dovrebbe avere emozioni è un'aspettativa fuori luogo. L'intelligenza artificiale in pratica è un insieme di strumenti e pertanto la sua applicazione deve essere decisa in base alle esigenze. Alcuni casi d'uso possono richiedere un aspetto emotivo, altri no. Chissà!
Kingz,

4

Penso che le emozioni non siano necessarie affinché un agente AI sia utile. Ma penso anche che potrebbero rendere l'agente MOLTO più piacevole con cui lavorare. Se il robot con cui stai parlando può leggere le tue emozioni e rispondere in modo costruttivo, l'esperienza di interagire con essa sarà tremendamente più piacevole, forse in modo spettacolare.

Immagina di contattare un rappresentante del call center umano oggi con un reclamo sulla tua fattura o su un prodotto. Anticipa il conflitto. Potresti anche aver deciso di NON chiamare perché sai che questa esperienza sarà dolorosa, combattiva o frustrante, in quanto qualcuno fraintende ciò che dici o risponde in modo ostile o stupido.

Ora immagina di chiamare la persona di assistenza clienti più intelligente e più gentile che tu abbia mai incontrato - Commander Data - il cui unico motivo per esistere è rendere questa telefonata il più piacevole e produttiva possibile per te. Un grande miglioramento rispetto alla maggior parte dei rappresentanti di chiamata, sì? Immagina quindi se il rappresentante delle chiamate Data potesse anche anticipare il tuo umore e rispondere in modo appropriato alle tue lamentele per disinnescare il tuo stato emotivo ... vorresti sposare questo ragazzo. Avresti richiamato i dati del rappresentante di chiamata ogni volta che ti sentivi blu o annoiato o volevi condividere qualche notizia felice. Questo ragazzo sarebbe diventato il tuo migliore amico dall'oggi al domani - letteralmente amore alla prima chiamata.

Sono convinto che questo scenario sia valido. Ho notato in me stesso una sorprendente quantità di attrazione per personaggi come Data o Sonny di "I Robot". La voce è molto rilassante e mi mette subito a mio agio. Se il bot fosse anche molto intelligente, paziente, ben informato e comprensivo ... Penso davvero che un tale bot, incorporato in una sana dose di intelligenza emotiva, potrebbe essere estremamente piacevole con cui interagire. Molto più gratificante di qualsiasi altra persona che conosca. E penso che sia vero non solo per me.

Quindi sì, penso che abbia un grande valore nel mettere a punto la personalità di un robot usando le emozioni e la consapevolezza emotiva.


4

L'emozione in un'intelligenza artificiale è utile, ma non necessaria a seconda del tuo obiettivo (nella maggior parte dei casi, non lo è).

In particolare, il riconoscimento / analisi delle emozioni è molto avanzato, ed è usato con successo in una vasta gamma di applicazioni, dall'insegnante di robot per bambini autistici (vedi robotica evolutiva) al gioco d'azzardo (poker) agli agenti personali e all'analisi del sentimento / bugie politiche.

La cognizione emotiva , l'esperienza delle emozioni per un robot, è molto meno sviluppata, ma ci sono ricerche molto interessanti (vedi Affect Heuristic , Lovotics's Probabilistic Love Assembly , e altri ...). In effetti, non riesco a capire perché non siamo riusciti a modellare emozioni come l' amore in quanto sono solo segnali che possono già essere tagliati nel cervello degli umani (vedi l'articolo di Brian D. Earp) . È difficile, ma non impossibile, e in realtà ci sono diversi robot che riproducono una parziale cognizione emotiva.

Sono dell'opinione che l'affermazione "i robot possono solo simulare ma non sentire" è solo una questione di semantica , non di capacità oggettiva: per esempio, un sottomarino nuota come un pesce? Tuttavia, gli aerei volano, ma non come fanno gli uccelli. Alla fine, il significato tecnico conta davvero quando alla fine otteniamo lo stesso comportamento? Possiamo davvero dire che un robot come Chappie , se mai viene realizzato, non sente nulla come un semplice termostato?

Tuttavia, quale sarebbe l'uso della cognizione emotiva per un'intelligenza artificiale? Questa domanda è ancora in grandi dibattiti, ma oserò offrire le mie intuizioni:

  1. Le emozioni negli umani (e negli animali!) Sono note per influenzare i ricordi. Ora sono ben noti nella neuroscienza come modalità aggiuntive o metadati, se preferisci, di memorie a lungo termine: consentono di modulare il modo in cui la memoria viene archiviata, come è associata / correlata con altre memorie e come verrà recuperata .

  2. Pertanto, possiamo ipotizzare che il ruolo principale delle emozioni sia quello di aggiungere ulteriori meta-informazioni ai ricordi per aiutare nell'inferenza / recupero euristico. In effetti, i nostri ricordi sono enormi, ci sono molte informazioni che memorizziamo nel corso della nostra vita, quindi le emozioni possono forse essere usate come "etichette" per aiutare a recuperare più velocemente i ricordi rilevanti.

  3. Simili "etichette" possono essere più facilmente associate insieme (ricordi di eventi spaventosi insieme, ricordi di eventi felici insieme, ecc.). In quanto tali, possono aiutare la sopravvivenza reagendo rapidamente e applicando strategie note (in fuga!) Da strategie spaventose o per sfruttare al meglio le situazioni benefiche (eventi felici, mangiare il più possibile, aiuteranno a sopravvivere in seguito!). E in realtà, gli studi sulle neuroscienze hanno scoperto che esistono percorsi specifici per stimoli sensoriali che inducono paura, in modo che raggiungano gli attuatori più velocemente (ti fanno fuggire) rispetto al passaggio attraverso il solito circuito somato-sensoriale come ogni altro stimolo. Questo tipo di ragionamento associativo potrebbe anche portare a soluzioni e conclusioni che altrimenti non potrebbero essere raggiunte.

  4. Sentendo empatia, ciò potrebbe facilitare l'interazione robot / uomo (ad es. Droni che aiutano le vittime di eventi catastrofici).

  5. Un modello virtuale di un'intelligenza artificiale con emozioni potrebbe essere utile per la neuroscienza e la ricerca medica nei disturbi emotivi come modelli computazionali per comprendere e / o inferire i parametri sottostanti (questo è spesso fatto ad esempio con l'Alzheimer e altre malattie neurodegenerative, ma non lo sono certo se è mai stato fatto per i disturbi emotivi in ​​quanto sono abbastanza nuovi nel DSM).

Quindi sì, l'IA "fredda" è già utile, ma l'IA emotiva potrebbe sicuramente essere applicata a nuove aree che non possono essere esplorate usando solo l'IA fredda. Aiuterà sicuramente anche a comprendere il nostro cervello, poiché le emozioni sono parte integrante.


2

Penso che dipenda dall'applicazione dell'IA. Ovviamente se sviluppo un'intelligenza artificiale il cui scopo è chiaramente quello di svolgere un compito specifico sotto la supervisione degli umani, non c'è bisogno di emozioni. Ma se lo scopo dell'IA è di svolgere il compito in modo autonomo, allora le emozioni o l'empatia possono essere utili. Ad esempio, pensa a un'intelligenza artificiale che funziona nel settore medico. Qui può essere vantaggioso per un'intelligenza artificiale avere un qualche tipo di empatia, solo per rendere i pazienti più a loro agio. O come altro esempio, pensa a un robot che funge da tata. Ancora una volta è ovvio che le emozioni e l'empatia sarebbero vantaggiose e desiderabili. Anche per un programma di AI di aiuto (slogan smart home) possono essere desiderabili emozioni ed empatia per rendere le persone più a proprio agio.

D'altra parte, se l'IA sta solo lavorando su una catena di montaggio, ovviamente non c'è bisogno di emozioni ed empatia (al contrario, in tal caso potrebbe non essere redditizio).


2

IA forti

Per un'intelligenza artificiale forte, la risposta breve è chiedere aiuto, quando potrebbero anche non sapere quale potrebbe essere il presunto aiuto.

Dipende da cosa farebbe l'IA. Se si suppone che risolva perfettamente e professionalmente un singolo compito facile, sicuramente le emozioni non sarebbero molto utili. Ma se si suppone che apprenda nuove cose casuali, ci sarebbe un punto in cui incontra qualcosa che non può gestire.

In Lee Sedol vs AlphaGo match 4, alcuni professionisti che hanno detto che il computer non ha emozioni in precedenza, hanno commentato che forse AlphaGo ha anche emozioni, e più forte dell'essere umano. In questo caso, sappiamo che il comportamento folle di AlphaGo non è causato da alcune cose deliberatamente aggiunte chiamate "emozioni", ma da un difetto nell'algoritmo. Ma si comporta esattamente come se fosse stato preso dal panico.

Se questo accade molto per un'intelligenza artificiale. Potrebbero esserci dei vantaggi se potesse saperlo da solo e pensarci due volte se succede. Se AlphaGo potesse rilevare il problema e cambiare la sua strategia, potrebbe giocare meglio o peggio. È improbabile che giochi peggio se non ha fatto alcun calcolo per altri approcci. Nel caso in cui andasse peggio, potremmo dire che soffre di "emozioni", e questo potrebbe essere il motivo per cui alcune persone pensano che avere emozioni possa essere un difetto degli esseri umani. Ma quella non sarebbe la vera causa del problema. La vera causa è che non conosce alcun approccio per garantire la vincita e il cambiamento di strategia è solo un tentativo di risolvere il problema. I commentatori pensano che ci siano modi migliori (che inoltre non garantiscono la vincita ma che hanno avuto più possibilità), ma il suo algoritmo non è Sono in grado di scoprirlo in questa situazione. Anche per l'essere umano, è improbabile che la soluzione a tutto ciò che riguarda le emozioni rimuova le emozioni, ma un po 'di allenamento per assicurarti di capire la situazione abbastanza per agire con calma.

Quindi qualcuno deve discutere se questo è un tipo di emozione o meno. Di solito non diciamo che i piccoli insetti abbiano emozioni simili all'uomo, perché non li capiamo e non siamo disposti ad aiutarli. Ma è facile sapere che alcuni di loro potrebbero farsi prendere dal panico in situazioni disperate, proprio come ha fatto AlphaGo. Direi che queste reazioni si basano sulla stessa logica e sono almeno il motivo per cui emozioni simili a quelle umane potrebbero essere potenzialmente utili. Semplicemente non sono espressi in modi comprensibili all'uomo, poiché non intendevano chiamare un umano per chiedere aiuto.

Se cercano di capire il proprio comportamento o di chiedere aiuto a qualcun altro, potrebbe essere bello essere esattamente umani. Alcuni animali domestici possono percepire le emozioni umane ed esprimere emozioni comprensibili all'uomo in una certa misura. Lo scopo è di interagire con gli umani. Si sono evoluti per avere questa capacità perché a un certo punto ne avevano bisogno. È probabile che ne abbia bisogno anche un'intelligenza artificiale completa. Si noti inoltre che, il contrario di avere emozioni complete potrebbe diventare pazzo.

È probabilmente un modo rapido per perdere qualsiasi fiducia se qualcuno nelle prime generazioni attua emozioni imitando gli umani con scarsa comprensione fin dalle prime generazioni.

IA deboli

Ma c'è uno scopo per loro di provare emozioni prima che qualcuno volesse un'intelligenza artificiale forte? Direi di no, non ci sono ragioni intrinseche per cui devono provare emozioni. Ma inevitabilmente qualcuno vorrà comunque implementare emozioni imitate. Se "noi" abbiamo bisogno che abbiano emozioni è solo una sciocchezza.

Il fatto è che anche alcuni programmi senza alcuna intelligenza contenevano alcuni elementi "emotivi" nelle loro interfacce utente. Potrebbero sembrare poco professionali, ma non tutti i compiti hanno bisogno di professionalità, quindi potrebbero essere perfettamente accettabili. Sono proprio come le emozioni nella musica e nelle arti. Qualcuno progetterà la sua AI debole anche in questo modo. Ma non sono proprio le emozioni degli IA, ma i loro creatori. Se ti senti meglio o peggio a causa delle loro emozioni, non tratterai le singole AI in modo così diverso, ma questo modello o marchio nel suo insieme.

In alternativa, qualcuno potrebbe piantare alcune personalità come in un gioco di ruolo lì. Ancora una volta, non c'è motivo per cui debbano averlo, ma inevitabilmente qualcuno lo farà, perché ovviamente avevano un po 'di mercato quando lo fa un gioco di ruolo.

In entrambi i casi, le emozioni non provengono realmente dall'intelligenza artificiale stessa. E sarebbe facile da implementare, perché un essere umano non si aspetta che siano esattamente come un essere umano, ma cerca di capire cosa intendessero dire. Potrebbe essere molto più facile accettare queste emozioni realizzandolo.

Aspetti delle emozioni

Mi dispiace per aver pubblicato alcune ricerche originali qui. Ho fatto un elenco di emozioni nel 2012 e da cui vedo 4 aspetti delle emozioni. Se fossero tutti implementati, direi che sono esattamente le stesse emozioni degli umani. Non sembrano reali se solo alcuni di essi sono implementati, ma ciò non significa che siano completamente sbagliati.

  • Il motivo o il problema logico originale che l'IA non può risolvere. AlphaGo aveva già il motivo, ma nient'altro. Se devo fare una definizione accurata, direi che è l'euristica multipla altrettanto importante in disaccordo tra loro.
    • Il contesto o quale parte dell'attuale approccio è considerato non funzionante e dovrebbe probabilmente essere sostituito. Ciò distingue la tristezza, la preoccupazione e la passione.
    • Lo stato attuale, o se si sente in testa, o se si suppone che la sua convinzione o il fatto si trasformino prima in cattivi (o in tutti i tempi) se le cose vanno male. Ciò distingue la tristezza, l'amore e l'orgoglio.
  • Il piano o la richiesta. Suppongo che alcuni animali domestici abbiano già avuto questo. E suppongo che questi avessero alcuni schemi fissi che non è troppo difficile da avere. Anche le arti possono contenerle facilmente. A differenza dei motivi, questi non sono probabilmente inerenti a nessun algoritmo e molti di essi possono apparire insieme.
    • Chi presumibilmente aveva la responsabilità se nulla è cambiato dall'emozione. Ciò distingue curiosità, rabbia e tristezza.
    • Qual è il presunto piano se nulla è cambiato dall'emozione. Questo distingue delusione, tristezza e sorpresa.
  • La fonte. Senza contesto, anche un essere umano non può dire in modo affidabile che qualcuno sta piangendo per essere commosso o grato o sorridere per un qualche tipo di imbarazzo. Nella maggior parte degli altri casi non ci sono nemmeno parole che li descrivono. Non fa molta differenza se un'intelligenza artificiale non lo distingue o lo mostra in modo speciale. È probabile che li imparerebbero automaticamente (e in modo impreciso come umani) nel momento in cui potrebbero imparare a comprendere le lingue umane.
  • Le misurazioni, ad esempio quanto sia urgente o importante il problema, o anche la probabilità che le emozioni siano vere. Direi che non può essere implementato nell'intelligenza artificiale. Gli umani non hanno bisogno di rispettarli anche se sono esattamente come gli umani. Ma gli umani impareranno a capire un'intelligenza artificiale se ciò conta davvero, anche se non sono affatto come umani. In effetti, sento che alcune delle emozioni estremamente deboli (come pensare che qualcosa sia troppo stupido e noioso da non sapere come commentare) esistono quasi esclusivamente nelle emoticon, dove qualcuno ha intenzione di mostrarti esattamente questa emozione, e quasi evidente nella vita reale o qualsiasi scenario complesso. Immagino che questo potrebbe essere anche il caso all'inizio per gli AI. Nel peggiore dei casi, sono inizialmente convenzionalmente conosciute come "emozioni" poiché le emoticon funzionano in questi casi, quindi

Quindi, quando diventano possibili IA forti, nessuna di queste sarebbe irraggiungibile, anche se potrebbe esserci molto lavoro per stabilire le connessioni. Quindi direi che se ci fosse la necessità di forti IA, avrebbero assolutamente delle emozioni.


2

Per emozioni non intende aggiungere ogni tipo di emozione in un'intelligenza artificiale. Intendeva solo quelli che saranno utili per prendere decisioni vitali. Considera questo incidente per un secondo:
supponiamo che un'auto con guida autonoma AI attraversi l'autostrada. La persona seduta all'interno è l'amministratore delegato di una società ed è in ritardo nei tempi previsti. Se non è arrivato in tempo ci sarà la perdita di milioni di dollari. È stato detto all'intelligenza artificiale in macchina di guidare il più velocemente possibile e raggiungere la destinazione. E ora arriva un coniglio (o qualche altro animale). Ora, se l'auto mette i freni di emergenza, i passeggeri si faranno gravemente male e inoltre ci saranno perdite di milioni in quanto il CEO non sarà in grado di arrivare alla riunione.

Ora cosa farà l'IA? funzione utile
Dal momento che per un'intelligenza artificiale, le loro decisioni si basano solo sul loro . Colpire il coniglio e andare avanti mostrerà logicamente un'opzione migliore. Ma, se l'IA dovesse prendere quella decisione.

Ci sono molte domande come queste in cui un'intelligenza artificiale potrebbe incastrarsi in una situazione in cui le decisioni basate sulla morale avranno un ruolo vitale.
Lo scenario sopra è solo per un punto di vista esemplificativo.


1

Teoria della mente

Se vogliamo che un'intelligenza artificiale generale forte funzioni bene in un ambiente composto da esseri umani, sarebbe molto utile avere una buona teoria della mente che corrisponda al modo in cui gli umani si comportano realmente. Quella teoria della mente deve includere emozioni simili all'uomo, o non corrisponderà alla realtà di questo ambiente.

Per noi, una scorciatoia spesso usata sta pensando esplicitamente "cosa avrei fatto in questa situazione?" "quale evento potrebbe avermi motivato a fare quello che hanno appena fatto?" "come mi sentirei se questo mi fosse successo ?". Vorremmo che un'intelligenza artificiale fosse in grado di ragionare in questo modo, è pratica e utile, consente migliori previsioni di azioni future e più efficaci.

Anche mentre sarebbe meglio per lui l'IA di non essere in realtà guidato da quelle emozioni esatte (forse qualcosa in quella direzione sarebbe utile, ma molto probabilmente non esattamente lo stesso), tutto cambia che invece di pensare "quello che mi sentirei" dovrebbe essere in grado di ipotizzare cosa si sentirebbe un essere umano generico. Ciò richiede l'implementazione di un sottosistema in grado di modellare accuratamente le emozioni umane.


1

! attento Ci sono in realtà due parti alla tua domanda. Non confondere i significati nelle tue domande, altrimenti non saprai davvero a quale parte stai rispondendo.

  1. Dovremmo lasciare che AGI provi l'emozione per "l'esperienza qualitativa"? (Nel senso che senti "il tuo cuore è in fiamme" quando ti innamori)

Non sembra esserci uno scopo chiaro sul perché lo vorremmo. Ipoteticamente potremmo avere qualcosa che è funzionalmente indistinguibile dalle emozioni, ma non ha alcuna esperienza qualitativa rispetto all'AGI. Ma non siamo in una posizione scientifica in cui possiamo persino iniziare a rispondere a qualsiasi domanda sulle origini dell'esperienza qualitativa, quindi non mi preoccuperò di approfondire questa domanda.

  1. Dovremmo lasciare che AGI provi emozioni per la sua equivalenza funzionale da un osservatore esterno?

IMHO sì. Sebbene si possa immaginare un'intelligenza artificiale tosta senza che le emozioni facciano qualsiasi cosa tu voglia, vorremmo che l'IA potesse integrarsi con i valori e le emozioni umane, che è il problema dell'allineamento. Sembrerebbe quindi naturale supporre che qualsiasi AGI ben originata abbia qualcosa di simile alle emozioni se si integra bene con gli umani.

MA, senza una chiara teoria della mente, non ha neppure senso chiedere: "la nostra AGI dovrebbe provare emozioni?" Forse c'è qualcosa di critico nelle nostre emozioni che ci rende agenti cognitivi produttivi che qualsiasi AGI richiederebbe anche.

In effetti, le emozioni sono spesso un aspetto trascurato della cognizione. Le persone in qualche modo pensano che i personaggi senza emozioni di Spock siano l'apice dell'intelligenza umana. Ma le emozioni sono in realtà un aspetto cruciale nel processo decisionale, vedi questo articolo per un esempio dei problemi con "l'intelligenza senza emozioni".

La domanda di follow-up sarebbe "che tipo di emozioni svilupperebbe l'AGI?", Ma ancora una volta non siamo in grado di rispondere (ancora).


0

A quale scopo sarebbe servito lo sviluppo di AI che provano emozioni simili all'uomo?

Qualsiasi problema complesso che coinvolge le emozioni umane, in cui la soluzione del problema richiede la capacità di simpatizzare con gli stati emotivi degli esseri umani, sarà più efficiente servita da un agente che può simpatizzare con le emozioni umane.

Politica. Governo. Politica e pianificazione. A meno che la cosa non abbia una conoscenza intima dell'esperienza umana, non sarà in grado di fornire risposte definitive a tutti i problemi che incontriamo nella nostra esperienza umana.


La politica e il governo che hai sottolineato sono stati un eccellente esempio. La mia prospettiva, tuttavia, è che l'IA deve solo essere in grado di comprendere l'emozione e non necessariamente di provarla.
Seth Simba,

0

Le emozioni umane sono intrinsecamente connesse ai valori umani e alla nostra capacità di cooperare e formare società.

Solo per fare un semplice esempio: incontri uno sconosciuto che ha bisogno di aiuto, provi empatia . Questo ti obbliga ad aiutarlo a costo tuo. Supponiamo che la prossima volta che lo incontrerai, avrai bisogno di qualcosa. Supponiamo anche che non ti aiuti, sentirai rabbia . Questa emozione ti obbliga a punirlo, a un costo ulteriore per te stesso. D'altra parte, se non ti aiuta, prova vergogna . Questo lo obbliga ad aiutarti davvero, evitando la tua rabbia e rendendo utile il tuo investimento iniziale. Entrambi ne beneficiate.

Quindi queste tre emozioni mantengono un cerchio di aiuto reciproco. Empatia per iniziare, rabbia per punire i disertori e vergogna per evitare la rabbia. Questo porta anche a un concetto di giustizia.

Dato che l'allineamento dei valori è uno dei maggiori problemi dell'AGI, le emozioni simili a quelle umane mi colpiscono come un buon approccio verso gli IA che effettivamente condividono i nostri valori e si integrano perfettamente nella nostra società.


ok punti, ma se andrai padre vedrai che le emozioni sono solo scorciatoie per una spiegazione logica del perché sono o non sono utili. Le regole potrebbero essere derivate dalle emozioni e dalla nostra biologia. E quelle regole sono mantenute in forma compressa e non ovvia come emozioni e biologia. Per noi è necessario, ma non per AI, anche se per noi potrebbe funzionare come ottimizzazione per l'IA se il costo di tale implementazione in forma digitale sarà inferiore all'implementazione basata su regole. Il problema con le regole è solo uno, noi stessi non le conosciamo completamente, ma il compito di AI è più stretto del nostro, potrebbe non aver bisogno di molte regole
MolbOrg
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.