Perché abbiamo bisogno del buonsenso nell'intelligenza artificiale?


10

Consideriamo questo esempio:

È il compleanno di John, compriamogli un aquilone.

Probabilmente noi umani diremmo che l'aquilone è un regalo di compleanno, se gli chiedessimo perché viene acquistato; e ci riferiamo a questo ragionamento come buon senso .

Perché ne abbiamo bisogno in agenti artificialmente intelligenti? Penso che potrebbe causare una miriade di problemi, dal momento che molti dei nostri errori umani sono causati da queste vaghe ipotesi.

Immagina che un'intelligenza artificiale ignori di fare determinate cose perché presume che sia già stata eseguita da qualcun altro (o un'altra IA), usando il suo buon senso.

Ciò non porterebbe errori umani nei sistemi di intelligenza artificiale?


I commenti non sono per una discussione estesa; questa conversazione è stata spostata in chat .
nbro

Risposte:


16

La conoscenza del buonsenso è la raccolta di premesse che tutti, in un determinato contesto (quindi la conoscenza del buonsenso potrebbe essere una funzione del contesto), danno per scontato. Esisterebbe molta comunicazione errata tra un essere umano e un'intelligenza artificiale se l'IA non possedesse una conoscenza di buon senso. Pertanto, la conoscenza del senso comune è fondamentale per l'interazione uomo-IA .

Ci sono anche premesse che ogni essere umano dà per scontate indipendentemente dal paese, dalla cultura o, in generale, dal contesto. Ad esempio, ogni essere umano (quasi dalla sua nascita) ha un meccanismo di ragionamento sulla fisica ingenua, come lo spazio, il tempo e le interazioni fisiche. Se un'intelligenza artificiale non possiede questa conoscenza, non può eseguire i compiti che richiedono questa conoscenza.

Qualsiasi attività che richieda a una macchina di avere una conoscenza di buon senso (di un essere umano medio ) è ritenuta completa di AI , cioè richiede intelligenza a livello umano (o generale). Vedi la sezione 3 dell'articolo Common Sense Knowledge (2009), di Christian Andrich, Leo Novosel e Bojan Hrnkas.

Naturalmente, i problemi che sorgono mentre gli umani comunicano a causa di presupposti o premesse differenti potrebbero sorgere anche tra umani e IA (che possiedono una conoscenza di buon senso).


I commenti non sono per una discussione estesa; questa conversazione è stata spostata in chat .
nbro

10

Abbiamo bisogno di questo tipo di conoscenza del buon senso se vogliamo che i computer comprendano il linguaggio umano. È facile per un programma per computer analizzare la struttura grammaticale dell'esempio che dai, ma per comprenderne il significato dobbiamo conoscere i possibili contesti, che è ciò che tu chiami qui come "buon senso".

Ciò è stato sottolineato molto in Roger Schank et al. Il lavoro sulla comprensione informatica delle storie e conduce a molte ricerche sulla rappresentazione della conoscenza, script, piani, obiettivi. Un esempio del lavoro di Schank è che Mary aveva fame. Ha preso una guida Michelin. - questo sembra un non-sequitur: se hai fame, perché prendere un libro? Fino a quando non ti rendi conto che si tratta di una guida del ristorante e che Mary sta presumibilmente programmando di andare in un ristorante per mangiare. Se sai che andare in un ristorante è una potenziale soluzione al problema della fame, non hai problemi a capire questo frammento di storia.

Ogni storia ha bisogno di buon senso per essere compresa, perché nessuna storia è completamente esplicita. Le cose comuni sono "comprese" e non sono esplicitamente menzionate. Le storie si riferiscono all'esperienza umana e una storia che renderebbe tutto esplicito probabilmente leggerebbe come un programma per computer. Hai anche bisogno di buon senso per capire come si comportano i personaggi di una storia e come sono influenzati da ciò che sta accadendo. Ancora una volta, questo è molto soggettivo, ma è necessario. Un certo buon senso potrebbe essere generalmente applicabile, altri aspetti non lo saranno. È una questione complessa, motivo per cui i ricercatori hanno lottato con essa per almeno mezzo secolo di ricerca sull'IA.

Naturalmente questo introdurrebbe "errori umani" in un sistema di intelligenza artificiale. Tutto ciò è molto soggettivo e specifico per la cultura. Andare in un ristorante negli Stati Uniti è diverso dall'andare in uno in Francia - ecco perché andare all'estero può essere una sfida. E la mia lettura di una storia sarà probabilmente diversa dalla tua. Ma se si desidera simulare l'intelligenza umana, non è possibile farlo senza potenziali "errori" umani.


I commenti non sono per una discussione estesa; questa conversazione è stata spostata in chat .
nbro

2

Risponderò a questa domanda in più parti:

Perché i sistemi AGI devono avere buon senso?

Gli umani nella ragione selvaggia e comunicano usando il buonsenso più di quanto non facciano con una logica rigorosa, lo si può notare notando che è più facile attrarre l'emozione di qualcuno che la logica. Quindi qualsiasi sistema che cerca di replicare la cognizione umana (come in AGI) dovrebbe replicare anche questa tendenza ad usare il buon senso.

Più semplicemente, vorremmo che il nostro sistema AGI potesse parlarci in un linguaggio di buon senso semplicemente perché è quello che capiamo meglio (altrimenti non capiremmo il nostro AGI amichevole, vero?). La teoria ottusa e la logica rigorosa potrebbero essere tecnicamente corrette, ma non fanno appello alla nostra comprensione.

L'obiettivo di AGI non è forse quello di creare il sistema più avanzato cognitivamente? Perché il sistema AGI "più perfetto" dovrebbe avere a che fare con tali imperfezioni e imprecisioni presenti nel senso comune?

Innanzitutto, potrebbe sembrare che la logica del senso comune sia "irrazionale". Forse esiste un modo matematico coerente per modellare il senso comune in modo tale che tutte le sottigliezze del senso comune siano rappresentate in modo rigoroso.

In secondo luogo, lo studio iniziale dell'intelligenza artificiale è iniziato nello studio della scienza cognitiva, in cui i ricercatori hanno cercato di replicare "algoritmi della mente", o più precisamente: procedure decidibili che replicavano il pensiero umano. Quindi, fino a quel punto, lo studio dell'IA non è quello di creare "il più supremo agente cognitivo", ma semplicemente di replicare il pensiero / comportamento umano. Una volta che possiamo replicare il comportamento umano, possiamo forse provare a creare qualcosa di superumano dandogli più potere computazionale, ma ciò non è garantito.

Non vedo ancora perché sia ​​necessario il buonsenso nei sistemi AGI. AGI non è forse il sistema di calcolo più intelligente e potente? Perché dovrebbe interessarsi o conformarsi ai limiti della comprensione umana, che richiede buon senso?

Forse allora hai una comprensione un po 'disallineata di ciò che comporta AGI. AGI non significa potere computazionale illimitato (fisicamente impossibile a causa di vincoli fisici sul calcolo come il limite di Bremermann ) o intelligenza illimitata (forse fisicamente impossibile a causa del vincolo precedente). Di solito significa semplicemente "intelligenza generale" artificiale, significato generale ampio e comune.

Le considerazioni sugli agenti senza limiti sono studiate in modo più dettagliato in campi come l'informatica teorica (teoria del tipo credo), la teoria delle decisioni e forse anche la teoria degli insiemi, in cui siamo in grado di porre domande sugli agenti con potere computazionale illimitato. Potremmo dire che ci sono domande a cui persino un sistema AGI con potenza illimitata non può rispondere a causa del problema Halting , ma solo se le ipotesi su quei campi si associano alla struttura della data AGI, il che potrebbe non essere vero.

Per una migliore comprensione di ciò che AGI potrebbe comportare e dei suoi obiettivi, potrei raccomandare due libri: Intelligenza Artificiale: L'Idea di John Haugeland per un approccio più pragmatico (tanto pragmatico quanto la filosofia AI può essere, e Sull'origine degli oggetti di Brian Cantwell Smith per un approccio più filosoficamente propenso.

A parte il divertimento, la collezione di Zen koan: The Gateless Gate, include il seguente passaggio: (citato e modificato da Wikipedia )

Un monaco chiese a Zhaozhou, un maestro cinese Zen, "Ha un cane di natura buddha o no?" Zhaozhou rispose: "Wú"

Wú (無) si traduce in "none", "nonesuch" o "nothing", che può essere interpretato in modo da evitare di rispondere sia sì che no. Questo individuo illuminato non cerca di rispondere rigorosamente a tutte le domande, ma solo di rispondere in modo sensato. Non importa in che modo il cane abbia o meno la natura di Buddha (qualunque cosa la natura di Buddha significhi), quindi il padrone per impostazione predefinita assolve la domanda piuttosto che risolverla.


3
Sarebbe stato molto più divertente se il maestro avesse risposto "wúf wúf!"
m3characters

1

Forse sarebbe d'aiuto dare un esempio di cosa può andare storto senza buon senso: all'inizio del romanzo "Le due facce di domani" di James Hogan, un supervisore della costruzione sulla Luna presenta una richiesta con un sistema automatizzato, chiedendo che un particolare grande pezzo di attrezzatura da costruzione deve essere consegnato al suo sito il più presto possibile. Il sistema risponde che arriverà tra venti minuti. Venti minuti dopo, il supervisore viene ucciso mentre l'attrezzatura si schianta contro il suo cantiere. Il sistema aveva stabilito che il modo più veloce per consegnare l'apparecchiatura a quel sito era montarlo su un driver di massa e lanciarlo sul sito. Se il sistema in questione avesse avuto il buon senso, avrebbe dedotto ulteriori vincoli non dichiarati sulla query, come "l'apparecchiatura dovrebbe arrivare intatta", " l'arrivo dell'attrezzatura non dovrebbe causare danni o perdita della vita ', e così via. (il resto del romanzo descrive un esperimento progettato per produrre un nuovo sistema con buon senso)


Un esempio piuttosto interessante. Tuttavia, forse potrebbe anche fare il contrario. Immagina che un AI effettui il check-in su un paziente e, vedendo l'aspetto generale generale del paziente, concludi che il paziente potrebbe / dovrebbe andare bene (in base al buon senso che se stai bene allora probabilmente lo sei); tuttavia, il paziente ha bisogno di un serio aiuto. Tuttavia, penso che sia ormai chiaro che il buonsenso non è il problema, è buonsenso / conoscenza difettosi che potrebbero rivelarsi pericolosi in situazioni critiche. Quindi credo che dovremmo controllare e assicurarci che l'IA abbia un buon senso ineccepibile .
Titano,

0

È questo senso comune, o questa comprensione del linguaggio naturale?

È stato detto che la comprensione del linguaggio naturale è uno dei compiti più difficili dell'IA. Questo è uno degli esempi che mostrano il perché. La prima parte della frase è correlata alla seconda parte, che spiega come funzionano le frasi.

Ora la domanda rilevante è come le due parti sono correlate. Ci sono alcune relazioni standard che incontriamo, ad esempio un ordine temporale. In questo esempio specifico, la natura della relazione è più vicina a una causa-effetto.

Vedi questo effetto quando inseriamo una parola per rendere esplicita questa relazione:

È il compleanno di John, quindi compriamogli un aquilone. o Compriamo a John un aquilone, perché è il suo compleanno.

Questa è una tecnica per gli esseri umani per rendere esplicite queste relazioni implicite.

Ora, come osserva la curiosità di Danni, hai anche bisogno delle conoscenze culturali per capire come un compleanno possa essere una causa per un regalo. Nessuna quantità di buon senso aiuta in questo.


Usiamo il " buon senso ", dobbiamo capire una frase del genere. La PNL è davvero dura, sono d'accordo, ed è perché finora l'IA non ha posseduto questa conoscenza e modello del mondo globale che noi umani abbiamo; quindi manca nel collegare i punti e comprendere quelle relazioni implicite. Quella " conoscenza culturale " che hai citato è sostanzialmente considerata il nostro buon senso.
Titano,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.