The Saturday Papers: AI Lie Lie To You? è un post sul blog che riassume un documento di ricerca chiamato Verso personaggi che osservano, raccontano, si dimenticano e mentono . Questo documento di ricerca illustra in dettaglio i piani di alcuni ricercatori per implementare "modelli mentali" per gli NPC nei videogiochi. Gli NPC raccoglieranno informazioni sul mondo e trasmetteranno tali conoscenze ad altre persone (inclusi i giocatori umani). Tuttavia, anche "dimenticheranno" quella conoscenza (o "mutando" quella conoscenza o semplicemente dimenticandola), o addirittura mentiranno:
Quando viene sollevato un argomento di conversazione, un personaggio può trasmettere informazioni false - più precisamente, informazioni che lei stessa non crede - al suo interlocutore. Attualmente, ciò accade probabilisticamente secondo l'affinità di un personaggio con l'interlocutore e la disinformazione viene scelta casualmente.
Più avanti nel documento di ricerca, hanno dettagliato i loro piani futuri per mentire:
Attualmente, le bugie sono memorizzate solo nella conoscenza dei personaggi che le ricevono, ma prevediamo che anche i personaggi che le dicono possano tenerne traccia in modo che possano ragionare sulle bugie passate durante la costruzione di quelle successive. Mentre attualmente i personaggi mentono solo su altri personaggi, abbiamo in programma di implementare anche mentire egocentrici (DePaulo 2004), ad esempio personaggi che mentono sul titolo professionale o sulle relazioni con altri personaggi. Infine, immaginiamo personaggi che scoprono di essere stati mentiti nel rivedere le loro affinità con i bugiardi, o addirittura nel confrontarli.
Il documento di ricerca ha anche dettagliato come altri sviluppatori di videogiochi hanno tentato di creare NPC bugiardi, con un'enfasi su come differisce il loro sistema:
I personaggi TALE-SPIN possono mentire tra loro (Meehan 1976, 183-84), anche se in modo piuttosto arbitrario, come nella nostra attuale implementazione del sistema. GOLEM implementa una variante mondiale a blocchi in cui gli agenti ingannano gli altri per raggiungere gli obiettivi (Castelfranchi, Falcone e De Rosis 1998), mentre Bocca della verità usa una rappresentazione probabilistica della credenza del personaggio per alimentare l'inganno degli agenti in una variante del gioco di imitazione di Turing (De Rosis et al.2003). In Christian (2004), un pianificatore dell'inganno inietta uno stato mondiale impreciso nelle credenze di un agente bersaglio in modo che lei possa involontariamente compiere azioni che soddisfino ulteriori obiettivi di un agente ingannatore. Infine, gli agenti dell'estensione di Reis (2012) a FAtiMA impiegano più livelli di teoria della mente per ingannarsi l'un l'altro nel gioco di società Werewolf. Mentre tutti i sistemi di cui sopra mostrano personaggi che percepiscono - e in alcuni casi, ingannano - altri personaggi, nessuno sembra supportare i seguenti componenti chiave del nostro sistema: propagazione della conoscenza e fallibilità della memoria. ...
Come alcuni altri sistemi sopra menzionati, Dwarf Fortress presenta anche personaggi che mentono autonomamente. Quando un personaggio commette un crimine, può implicare falsamente qualcun altro in un rapporto di testimone a uno sceriffo, per proteggere se stesso o persino per incastrare un nemico. Questi resoconti dei testimoni, tuttavia, sono visti solo dal giocatore; i personaggi non si scambiano falsi resoconti di testimoni. Tuttavia, possono mentire sulle loro opinioni, per esempio, per paura di ripercussioni dal criticare un leader. Infine, Dwarf Fortress al momento non modella i problemi della fallibilità della memoria: Adams è diffidente sul fatto che tali fenomeni sembrerebbero derivare da bug se non espressamente espressi al giocatore.