IA forti
Per un'intelligenza artificiale forte, la risposta breve è chiedere aiuto, quando potrebbero anche non sapere quale potrebbe essere il presunto aiuto.
Dipende da cosa farebbe l'IA. Se si suppone che risolva perfettamente e professionalmente un singolo compito facile, sicuramente le emozioni non sarebbero molto utili. Ma se si suppone che apprenda nuove cose casuali, ci sarebbe un punto in cui incontra qualcosa che non può gestire.
In Lee Sedol vs AlphaGo match 4, alcuni professionisti che hanno detto che il computer non ha emozioni in precedenza, hanno commentato che forse AlphaGo ha anche emozioni, e più forte dell'essere umano. In questo caso, sappiamo che il comportamento folle di AlphaGo non è causato da alcune cose deliberatamente aggiunte chiamate "emozioni", ma da un difetto nell'algoritmo. Ma si comporta esattamente come se fosse stato preso dal panico.
Se questo accade molto per un'intelligenza artificiale. Potrebbero esserci dei vantaggi se potesse saperlo da solo e pensarci due volte se succede. Se AlphaGo potesse rilevare il problema e cambiare la sua strategia, potrebbe giocare meglio o peggio. È improbabile che giochi peggio se non ha fatto alcun calcolo per altri approcci. Nel caso in cui andasse peggio, potremmo dire che soffre di "emozioni", e questo potrebbe essere il motivo per cui alcune persone pensano che avere emozioni possa essere un difetto degli esseri umani. Ma quella non sarebbe la vera causa del problema. La vera causa è che non conosce alcun approccio per garantire la vincita e il cambiamento di strategia è solo un tentativo di risolvere il problema. I commentatori pensano che ci siano modi migliori (che inoltre non garantiscono la vincita ma che hanno avuto più possibilità), ma il suo algoritmo non è Sono in grado di scoprirlo in questa situazione. Anche per l'essere umano, è improbabile che la soluzione a tutto ciò che riguarda le emozioni rimuova le emozioni, ma un po 'di allenamento per assicurarti di capire la situazione abbastanza per agire con calma.
Quindi qualcuno deve discutere se questo è un tipo di emozione o meno. Di solito non diciamo che i piccoli insetti abbiano emozioni simili all'uomo, perché non li capiamo e non siamo disposti ad aiutarli. Ma è facile sapere che alcuni di loro potrebbero farsi prendere dal panico in situazioni disperate, proprio come ha fatto AlphaGo. Direi che queste reazioni si basano sulla stessa logica e sono almeno il motivo per cui emozioni simili a quelle umane potrebbero essere potenzialmente utili. Semplicemente non sono espressi in modi comprensibili all'uomo, poiché non intendevano chiamare un umano per chiedere aiuto.
Se cercano di capire il proprio comportamento o di chiedere aiuto a qualcun altro, potrebbe essere bello essere esattamente umani. Alcuni animali domestici possono percepire le emozioni umane ed esprimere emozioni comprensibili all'uomo in una certa misura. Lo scopo è di interagire con gli umani. Si sono evoluti per avere questa capacità perché a un certo punto ne avevano bisogno. È probabile che ne abbia bisogno anche un'intelligenza artificiale completa. Si noti inoltre che, il contrario di avere emozioni complete potrebbe diventare pazzo.
È probabilmente un modo rapido per perdere qualsiasi fiducia se qualcuno nelle prime generazioni attua emozioni imitando gli umani con scarsa comprensione fin dalle prime generazioni.
IA deboli
Ma c'è uno scopo per loro di provare emozioni prima che qualcuno volesse un'intelligenza artificiale forte? Direi di no, non ci sono ragioni intrinseche per cui devono provare emozioni. Ma inevitabilmente qualcuno vorrà comunque implementare emozioni imitate. Se "noi" abbiamo bisogno che abbiano emozioni è solo una sciocchezza.
Il fatto è che anche alcuni programmi senza alcuna intelligenza contenevano alcuni elementi "emotivi" nelle loro interfacce utente. Potrebbero sembrare poco professionali, ma non tutti i compiti hanno bisogno di professionalità, quindi potrebbero essere perfettamente accettabili. Sono proprio come le emozioni nella musica e nelle arti. Qualcuno progetterà la sua AI debole anche in questo modo. Ma non sono proprio le emozioni degli IA, ma i loro creatori. Se ti senti meglio o peggio a causa delle loro emozioni, non tratterai le singole AI in modo così diverso, ma questo modello o marchio nel suo insieme.
In alternativa, qualcuno potrebbe piantare alcune personalità come in un gioco di ruolo lì. Ancora una volta, non c'è motivo per cui debbano averlo, ma inevitabilmente qualcuno lo farà, perché ovviamente avevano un po 'di mercato quando lo fa un gioco di ruolo.
In entrambi i casi, le emozioni non provengono realmente dall'intelligenza artificiale stessa. E sarebbe facile da implementare, perché un essere umano non si aspetta che siano esattamente come un essere umano, ma cerca di capire cosa intendessero dire. Potrebbe essere molto più facile accettare queste emozioni realizzandolo.
Aspetti delle emozioni
Mi dispiace per aver pubblicato alcune ricerche originali qui. Ho fatto un elenco di emozioni nel 2012 e da cui vedo 4 aspetti delle emozioni. Se fossero tutti implementati, direi che sono esattamente le stesse emozioni degli umani. Non sembrano reali se solo alcuni di essi sono implementati, ma ciò non significa che siano completamente sbagliati.
- Il motivo o il problema logico originale che l'IA non può risolvere. AlphaGo aveva già il motivo, ma nient'altro. Se devo fare una definizione accurata, direi che è l'euristica multipla altrettanto importante in disaccordo tra loro.
- Il contesto o quale parte dell'attuale approccio è considerato non funzionante e dovrebbe probabilmente essere sostituito. Ciò distingue la tristezza, la preoccupazione e la passione.
- Lo stato attuale, o se si sente in testa, o se si suppone che la sua convinzione o il fatto si trasformino prima in cattivi (o in tutti i tempi) se le cose vanno male. Ciò distingue la tristezza, l'amore e l'orgoglio.
- Il piano o la richiesta. Suppongo che alcuni animali domestici abbiano già avuto questo. E suppongo che questi avessero alcuni schemi fissi che non è troppo difficile da avere. Anche le arti possono contenerle facilmente. A differenza dei motivi, questi non sono probabilmente inerenti a nessun algoritmo e molti di essi possono apparire insieme.
- Chi presumibilmente aveva la responsabilità se nulla è cambiato dall'emozione. Ciò distingue curiosità, rabbia e tristezza.
- Qual è il presunto piano se nulla è cambiato dall'emozione. Questo distingue delusione, tristezza e sorpresa.
- La fonte. Senza contesto, anche un essere umano non può dire in modo affidabile che qualcuno sta piangendo per essere commosso o grato o sorridere per un qualche tipo di imbarazzo. Nella maggior parte degli altri casi non ci sono nemmeno parole che li descrivono. Non fa molta differenza se un'intelligenza artificiale non lo distingue o lo mostra in modo speciale. È probabile che li imparerebbero automaticamente (e in modo impreciso come umani) nel momento in cui potrebbero imparare a comprendere le lingue umane.
- Le misurazioni, ad esempio quanto sia urgente o importante il problema, o anche la probabilità che le emozioni siano vere. Direi che non può essere implementato nell'intelligenza artificiale. Gli umani non hanno bisogno di rispettarli anche se sono esattamente come gli umani. Ma gli umani impareranno a capire un'intelligenza artificiale se ciò conta davvero, anche se non sono affatto come umani. In effetti, sento che alcune delle emozioni estremamente deboli (come pensare che qualcosa sia troppo stupido e noioso da non sapere come commentare) esistono quasi esclusivamente nelle emoticon, dove qualcuno ha intenzione di mostrarti esattamente questa emozione, e quasi evidente nella vita reale o qualsiasi scenario complesso. Immagino che questo potrebbe essere anche il caso all'inizio per gli AI. Nel peggiore dei casi, sono inizialmente convenzionalmente conosciute come "emozioni" poiché le emoticon funzionano in questi casi, quindi
Quindi, quando diventano possibili IA forti, nessuna di queste sarebbe irraggiungibile, anche se potrebbe esserci molto lavoro per stabilire le connessioni. Quindi direi che se ci fosse la necessità di forti IA, avrebbero assolutamente delle emozioni.