Come si può misurare l'EQ di un programma AI?


9

Un programma di intelligenza artificiale può avere un EQ (intelligenza emotiva o quoziente emotivo)?

In altre parole, è possibile misurare l'EQ di un programma AI?

Se l'EQ è più problematico da misurare rispetto al QI (almeno con un'applicazione standard sia per gli esseri umani che per i programmi di intelligenza artificiale), perché è così?


Di quali "test EQ" conosci gli umani? Quale sarebbe l'ostacolo ad applicarli a un'intelligenza artificiale?
NietzscheanAI,

Risposte:


6

La risposta alla tua domanda è "In linea di principio, sì" - nella sua forma più generale, il test EQ è solo un caso specifico del test di Turing ("Come ti sentiresti ...?").

Per capire perché test di EQ significativi potrebbero essere difficili da realizzare, considerare i seguenti due test possibili:

A un estremo di complessità, il film "Blade Runner" mostra notoriamente un test per distinguere tra umano e androide sulla base delle risposte a domande cariche di emozioni.

Se provassi a porre queste domande (o anche molto più semplici) a un moderno chatbot, probabilmente concluderesti rapidamente che non stavi parlando con una persona.

Il problema con la valutazione dell'EQ è che più il test è sofisticato dal punto di vista emotivo, più è probabile che debba essere il sistema di intelligenza artificiale per trasformare l'input in una rappresentazione significativa.

All'altro estremo di quanto sopra, supponiamo che un test EQ sia stato formulato in modo estremamente strutturato, con l'input strutturato fornito da un essere umano. In tal caso, il successo in un "test EQ" non è realmente radicato nel mondo reale.

In un saggio intitolato "L'effetto ineludibile di Eliza e i suoi pericoli", Douglas Hofstadter fornisce l'esempio seguente, in cui il programma ACME viene rivendicato (non da Hofstadter) per "comprendere" l'analogia.

Qui il computer viene a sapere di un tipo di nome Sluggo che porta sua moglie Jane e il suo buon amico Buck in un bar, dove le cose prendono il loro corso naturale e Jane finisce incinta di Buck. Ha il bambino ma non lo vuole, e così, aiutata da suo marito, annega il bambino in un fiume, "risolvendo così" il problema "di Bambi.

Questa storia è presentata ad ACME nella seguente forma:

ql: (neglectful-husband (Sluggo))
q2: (lonely-and-sex-starved-wife (Jane-Doe))
q3: (macho-ladykiller (Buck-Stag))
q4: (poor-innocent-little-fetus (Bambi))
q5: (takes-out-to-local-bar (Sluggo Jane-Doe Buck-Stag))
...
q11: (neatly-solves-the-problem-of (Jane-Doe Bambi))
q12: (cause (ql0 q11))

Supponiamo che il programma debba essere chiesto se il comportamento di Jane Doe è morale. Concetti emotivi composti complessi come "negligente", "solitario" e "innocente" sono qui semplicemente predicati, non disponibili all'intelligenza artificiale per un esame introspettivo più approfondito. Potrebbero essere facilmente sostituiti da etichette come "bling-blang-blong15657".

Quindi, in un certo senso, l'assenza di successo in un test EQ con qualsiasi profondità è indicativa del problema generale che sta attualmente affrontando l'IA: l'incapacità di definire (o altrimenti apprendere) rappresentazioni significative di sottili complessità del mondo umano, che è molto più complesso di poter riconoscere i video dei gatti.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.