Sono già stati sviluppati sistemi di intelligenza artificiale che possono consapevolmente mentire / ingannare un essere umano?


11

Oggi i sistemi di intelligenza artificiale sono macchine molto capaci e recentemente l'area di elaborazione e risposta del linguaggio naturale è esplosa con l'innovazione, così come la struttura algoritmica fondamentale delle macchine di intelligenza artificiale.

Mi chiedo se, date queste recenti scoperte, siano stati sviluppati sistemi di intelligenza artificiale in grado di mentire (preferibilmente con una certa dose di successo) consapevolmente agli umani su fatti che conosce?

Nota, ciò che sto chiedendo va oltre le discussioni canoniche del test di Turing. Sto chiedendo macchine che possano "capire" fatti e quindi formulare una menzogna contro questo fatto, forse usando altri fatti per produrre un credibile "insabbiamento" come parte della menzogna.

Ad esempio: il supercomputer della CIA viene rubato dalle spie e cercano di usare il computer per fare le cose, ma il computer continua a dire che manca di dipendenze sebbene non lo sia o dia risposte consapevoli ma sbagliate. Oppure indica la posizione errata di una persona, sapendo che la persona frequenta un posto ma non è presente al momento. Non deve essere così sofisticato, ovviamente.

Risposte:


10

The Saturday Papers: AI Lie Lie To You? è un post sul blog che riassume un documento di ricerca chiamato Verso personaggi che osservano, raccontano, si dimenticano e mentono . Questo documento di ricerca illustra in dettaglio i piani di alcuni ricercatori per implementare "modelli mentali" per gli NPC nei videogiochi. Gli NPC raccoglieranno informazioni sul mondo e trasmetteranno tali conoscenze ad altre persone (inclusi i giocatori umani). Tuttavia, anche "dimenticheranno" quella conoscenza (o "mutando" quella conoscenza o semplicemente dimenticandola), o addirittura mentiranno:

Quando viene sollevato un argomento di conversazione, un personaggio può trasmettere informazioni false - più precisamente, informazioni che lei stessa non crede - al suo interlocutore. Attualmente, ciò accade probabilisticamente secondo l'affinità di un personaggio con l'interlocutore e la disinformazione viene scelta casualmente.

Più avanti nel documento di ricerca, hanno dettagliato i loro piani futuri per mentire:

Attualmente, le bugie sono memorizzate solo nella conoscenza dei personaggi che le ricevono, ma prevediamo che anche i personaggi che le dicono possano tenerne traccia in modo che possano ragionare sulle bugie passate durante la costruzione di quelle successive. Mentre attualmente i personaggi mentono solo su altri personaggi, abbiamo in programma di implementare anche mentire egocentrici (DePaulo 2004), ad esempio personaggi che mentono sul titolo professionale o sulle relazioni con altri personaggi. Infine, immaginiamo personaggi che scoprono di essere stati mentiti nel rivedere le loro affinità con i bugiardi, o addirittura nel confrontarli.

Il documento di ricerca ha anche dettagliato come altri sviluppatori di videogiochi hanno tentato di creare NPC bugiardi, con un'enfasi su come differisce il loro sistema:

I personaggi TALE-SPIN possono mentire tra loro (Meehan 1976, 183-84), anche se in modo piuttosto arbitrario, come nella nostra attuale implementazione del sistema. GOLEM implementa una variante mondiale a blocchi in cui gli agenti ingannano gli altri per raggiungere gli obiettivi (Castelfranchi, Falcone e De Rosis 1998), mentre Bocca della verità usa una rappresentazione probabilistica della credenza del personaggio per alimentare l'inganno degli agenti in una variante del gioco di imitazione di Turing (De Rosis et al.2003). In Christian (2004), un pianificatore dell'inganno inietta uno stato mondiale impreciso nelle credenze di un agente bersaglio in modo che lei possa involontariamente compiere azioni che soddisfino ulteriori obiettivi di un agente ingannatore. Infine, gli agenti dell'estensione di Reis (2012) a FAtiMA impiegano più livelli di teoria della mente per ingannarsi l'un l'altro nel gioco di società Werewolf. Mentre tutti i sistemi di cui sopra mostrano personaggi che percepiscono - e in alcuni casi, ingannano - altri personaggi, nessuno sembra supportare i seguenti componenti chiave del nostro sistema: propagazione della conoscenza e fallibilità della memoria. ...

Come alcuni altri sistemi sopra menzionati, Dwarf Fortress presenta anche personaggi che mentono autonomamente. Quando un personaggio commette un crimine, può implicare falsamente qualcun altro in un rapporto di testimone a uno sceriffo, per proteggere se stesso o persino per incastrare un nemico. Questi resoconti dei testimoni, tuttavia, sono visti solo dal giocatore; i personaggi non si scambiano falsi resoconti di testimoni. Tuttavia, possono mentire sulle loro opinioni, per esempio, per paura di ripercussioni dal criticare un leader. Infine, Dwarf Fortress al momento non modella i problemi della fallibilità della memoria: Adams è diffidente sul fatto che tali fenomeni sembrerebbero derivare da bug se non espressamente espressi al giocatore.


2

Dovrai fornire più contesto attorno all'uso della parola "menzogna" se non vuoi che la tua risposta sia soddisfacente con qualche esempio banale, come:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

La complessità della risposta dipende da cosa intendi per "sapere" quando dici "menti consapevolmente". Vi è un certo senso in cui la funzione 'uguale' sopra "sa" che l'output è diverso dal condizionale.

In linea di principio, gli agenti che si scambiano stringhe di informazioni l'una con l'altra allo scopo di ingannarsi a vicenda non dovrebbero essere tremendamente difficili da attuare. Tale comportamento probabilmente emerge naturalmente in ambienti competitivi e multi-agente. Guarda i robot in evoluzione imparare a mentire l'un l'altro .

Per ottenere un altro punto di vista su ciò che potresti chiedere - assolutamente, la capacità di fib o simpaticamente fuorviante saranno le abilità necessarie per i robot che interagiscono con gli umani usando il linguaggio parlato - specialmente quelli che cercano di vendere cose agli umani. Per quanto riguarda spie e supercomputer, vorrei solo congelare lo stato del programma dell'IA. Se si dispone di un'istantanea completa dello stato dell'agente, è possibile scorrere ogni ramo condizionale, verificando eventuali rami che capovolgono o interpretano la verità.


1
Il comportamento dell'IA potrebbe essere codificato nei pesi di una RNA, rendendo "attraversare ogni ramo condizionale" un compito altamente non banale.
NietzscheanAI,

Concordato. Ma dimostra che in linea di principio il comportamento contraddittorio di un'IA può essere monitorato in sicurezza, al posto di altre opzioni.
Doxosophoi,

2

No.

In ciò la domanda include "consapevolmente" che richiederebbe che qualsiasi IA sappia qualcosa. Se questo è qualcosa di simile al modo in cui gli esseri umani conoscono le cose (anche se, in modo interessante, non richiede di conoscere effettivamente le cose), richiederebbe un certo senso di individualità, probabilmente autocoscienza, forse un qualche tipo di coscienza, la capacità di esprimere un'opinione e probabilmente un modo per testare le sue conoscenze. La maggior parte di queste funzionalità esiste solo, nella migliore delle ipotesi, probabilmente.

Inoltre, il termine "menzogna" implica un senso di interesse personale, una comprensione indipendente del flusso di risorse in senso teorico del gioco, e non banalmente, una comprensione del fatto che l'altra entità nella conversazione stia mentendo, al fine di decisione con qualsiasi grado di precisione. Quindi, nessuna intelligenza artificiale può mentire a nessuno se non nei banali scenari suggeriti nelle altre risposte, rendendo false informazioni basate su determinati contesti, che sono semplicemente input / output semplici.

Come sviluppatore di software esperto, posso attestare che se l'obiettivo è rendere l'output corretto in base a qualsiasi input, in realtà è altrettanto facile se non molto più semplice rendere false informazioni.


1

Sì.

Consentitemi di dimostrare facendo un'IA bugiarda proprio ora. (codice Python)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

E un ingannevole:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI è un termine così generale. Potrebbe essere usato per descrivere quasi tutto. Non hai specificato che doveva essere un'IA generale.

L'intelligenza artificiale non può pensare. Sono programmi per computer. Non hanno anima o volontà. È solo il programmatore (o se è stato progettato attraverso l'evoluzione ... nessuno , ma è fuori tema) che può consapevolmente programmare un'IA per mentire.

Nota, ciò che sto chiedendo va oltre le discussioni canoniche del test di Turing. Sto chiedendo macchine che possano "capire" fatti e quindi formulare una menzogna contro questo fatto, forse usando altri fatti per produrre un credibile "insabbiamento" come parte della menzogna.

Sì, è successo. Si chiama malware. Alcuni malware avanzati ti parleranno fingendo di essere supporto tecnico e risponderanno con risposte umane comuni. Ma potresti dire "beh, non capisce davvero". Ma sarebbe facile. Rete neurale + più CPU di quella esistente sul pianeta * (esisterà tra qualche anno e sarà conveniente) + alcune risposte di esempio = Neural Network AI (stessa cosa in yo noggin) che comprende e risponde.

Ma questo non è necessario. Una rete neurale relativamente `semplice con pochi supercomputer che potrebbero adattarsi a una stanza potrebbe convincere un essere umano. Non capisce

Quindi è davvero ...

Tecnicamente, No, ma è possibile e se estendi le regole sì.

* O ancora più semplice:

print("1+1=3")

Accreditamento: sono un programmatore (guarda il mio account Stack Overflow) che conosce un po 'l'IA.


1
Non è proprio quello di cui stavo parlando. Si tratta di programmi che svolgono comportamenti esplicitamente codificati e predeterminati e non comportano intelligenza artificiale. Un programmatore può fornire all'IA gli strumenti e insegnargli a mentire.
Avik Mohan,

@ uoɥʇʎPʎzɐɹC "L'IA non può pensare"? Intendi attualmente? Certamente l'obiettivo dell'AGI è quello di simulare come indistinguibile o migliorare qualunque cosa definiamo "pensare", no? Concordo sul fatto che gli algoritmi deterministici non possono pensare.
dynrepsys,

@AvikMohan è importante? un AI è giudicato da COMPORTAMENTO non dal modo in cui è stato realizzato.
noɥʇʎԀʎzɐɹƆ

@dynrepsys Come fai a sapere che tutti questi algoritmi sono deterministici? Come fai a sapere che non sei deterministico? Le reti neurali NON sono deterministiche e sono le stesse cose nel tuo noggin.
noɥʇʎԀʎzɐɹƆ

Il comportamento qui è esplicito e irremovibile, e dell'approccio "pigro" / "avido". Sto parlando anche del comportamento, ma solo del tipo "intelligente".
Avik Mohan,

0

Sì.

  1. Ogni partita a scacchi ... ogni partita di poker. Ogni gioco.
  2. Altri software o spam spam più intelligenti. Sebbene il loro obiettivo principale sia mentire ai sistemi informatici (avvelenamento da filtro antispam), il loro obiettivo secondario è mentire all'uomo dietro di loro.
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.