Un'intelligenza artificiale potrebbe pensare lateralmente evitando scelte "eticamente non ottimali"?


13

Nel recente gioco per PC The Turing Test , l'IA ("TOM") ha bisogno dell'aiuto di Ava per attraversare alcune stanze puzzle. TOM dice che non è in grado di risolvere i puzzle perché non gli è permesso " pensare lateralmente ". In particolare, dice che non avrebbe pensato di gettare una scatola attraverso una finestra per risolvere la prima stanza. I suoi creatori, racconta la storia, hanno disattivato questa capacità perché tale pensiero potrebbe produrre soluzioni "eticamente non ottimali", come tagliare un braccio per lasciarlo su una piastra di pressione.

Tutte le abilità creative di risoluzione di enigmi dovrebbero essere rimosse da un'intelligenza artificiale per mantenere ragionevoli i suoi risultati o potremmo ottenere alcuni benefici del pensiero laterale senza perdere un braccio?

Risposte:


17

No , con un ma . Possiamo avere una risoluzione dei problemi creativa ma etica se il sistema ha un sistema etico completo, ma altrimenti la creatività non sarà sicura per impostazione predefinita.

Si possono classificare gli approcci decisionali dell'IA in due tipi: pensatori interpolativi e pensatori estrapolati.

I pensatori interpolativi imparano a classificare e imitare qualunque cosa stiano imparando, e non cercano di dare risultati ragionevoli al di fuori del loro dominio di addestramento. Puoi considerarli come interpolazione tra esempi di formazione e beneficiare di tutte le garanzie e disposizioni matematiche come altre tecniche statistiche.

I pensatori estrapolativi imparano a manipolare i principi di base, il che consente loro di combinare tali principi in modi precedentemente non considerati. Il campo rilevante per l'intuizione qui è l'ottimizzazione numerica , di cui l'esempio più semplice e famoso è la programmazione lineare , piuttosto che i campi statistici che hanno dato origine all'apprendimento automatico. Puoi pensarli come estrapolare oltre gli esempi di addestramento (in effetti, molti di loro non richiedono nemmeno esempi di addestramento, o usano quegli esempi per inferire i principi sottostanti).

La promessa dei pensatori estrapolati è che possono trovare queste soluzioni "laterali" molto più rapidamente di quanto le persone sarebbero in grado di fare. Il problema con questi pensatori estrapolati è che usano solo i principi parlati, non quelli non dotti che potrebbero sembrare troppo ovvi per essere menzionati.

Un attributo di soluzioni ai problemi di ottimizzazione è che il vettore di funzionalità è spesso "estremo" in qualche modo. Nella programmazione lineare, almeno un vertice dello spazio di soluzione possibile sarà ottimale, e così i metodi di soluzione semplici trovano un vertice ottimale (che è quasi impossibile per natura di essere un vertice).

Come altro esempio, la soluzione a combustibile minimo per spostare un veicolo spaziale da una posizione all'altra è chiamata " bang-bang ", dove si accelera l'imbarcazione il più rapidamente possibile all'inizio e alla fine della traiettoria, andando alla massima velocità tra .

Mentre una virtù quando il sistema è compreso correttamente (il bang-bang è ottimale per molti casi), questo è catastrofico quando il sistema è compreso in modo errato. Il mio esempio preferito qui è il problema di dieta di Dantzig (la discussione inizia a pagina 5 del pdf), dove cerca di ottimizzare la sua dieta usando la matematica. Sotto il suo primo vincolo, dovrebbe bere 500 litri di aceto al giorno. Sotto il suo secondo, 200 cubetti di brodo. Sotto il suo terzo, due chili di crusca. Le considerazioni che rendono queste idee ovviamente cattive non sono inserite nel sistema, e quindi il sistema le suggerisce innocentemente.

Se riesci a codificare completamente le conoscenze e i valori che una persona usa per giudicare questi piani nell'intelligenza artificiale, i sistemi estrapolativi sono sicuri come quella persona. Saranno in grado di considerare e rifiutare il tipo sbagliato di piani estremi e lasciarti con il giusto tipo di piani estremi.

Ma se non ci riesci, allora ha senso non costruire un decisore estrapolato e costruirne uno interpolativo. Cioè, invece di chiedersi "come posso realizzare al meglio l'obiettivo X?" si sta chiedendo "cosa farebbe una persona in questa situazione?". Quest'ultimo potrebbe essere molto peggio nel raggiungere l'obiettivo X, ma ha molto meno rischio di sacrificare altri obiettivi per raggiungere X.


2

L'etica coinvolge le relazioni dei bisogni tra due o più parti. Come ha detto Matthew Graves, se l'IA manca del contesto umano sufficiente (comprensione dei bisogni), produrrà un comportamento etico apparentemente perverso.

E siamo onesti, alcune persone tagliano le braccia di altre persone e le mettono su piastre a pressione. Anche il migliore di noi non sarà in grado di simpatizzare con le esigenze degli altri con una precisione del 100% - nella migliore delle ipotesi, stiamo indovinando. E poi ci sono quelle rare situazioni in cui voglio davvero che tu mi tagli il braccio e lo metta su una piastra a pressione, forse per salvare una persona cara.

Se potessimo fare qualcosa che potesse simpatizzare con ciò di cui un umano potrebbe aver bisogno in una data situazione arbitraria, allora avremmo creato A) un'intelligenza umana artificiale (AHI) (che potrebbe essere più o meno fallibile, come un essere umano), oppure B) un oracolo in grado di ragionare su tutti i possibili bisogni umani su una scala temporale molto più rapida rispetto a quella umana - nel qual caso non avresti bisogno di un'intelligenza artificiale consapevole, poiché tutti i bisogni e le soluzioni umane potrebbero essere pre-calcolati tramite specifiche formali, che è probabilmente assurdo da considerare.


0

Puoi anche considerare la programmazione come una parte etica del progetto. L'intelligenza artificiale agirà in base a ciò che le è stato insegnato come eticamente importante o meno. Potrebbe / dovrebbe anche far parte dei parametri che determinano il processo di ricerca di soluzioni, che potrebbero consentire una soluzione più raffinata e creativa.

Comprendiamo le basi dell'etica in circostanze normali, ma se non riusciamo a prevedere come si comporterà un essere umano in un enigma etico, possiamo imporre ciò che un'IA non farebbe.

Finché avremo il controllo sul meccanismo che guida un'intelligenza artificiale, abbiamo sicuramente la responsabilità di iniettare errori etici. Il problema risiede nell'intelligenza artificiale autodidatta con una capacità di scavalcare le direttive. (Leggi CF Asimov.)

Il modo in cui l'IA è creativa sembra irrilevante in quel caso.


-1

Molto dipende dall'ampiezza delle considerazioni. Ad esempio, quali sarebbero gli effetti a medio e lungo termine del pensiero laterale? Il robot potrebbe recidere un braccio per una piastra di pressione ma significherebbe che la persona non aveva più un braccio, una limitazione funzionale nella migliore delle ipotesi, che la persona potrebbe sanguinare e morire / essere gravemente vincolata e che la persona (e le persone in generale) entrambi non coopererebbero più e probabilmente cercheranno di eliminare il robot. Le persone possono pensare lateralmente perché considerano queste cose: l'etica non è altro che un insieme di linee guida che racchiudono queste considerazioni. Anche il robot potrebbe, se fosse progettato per considerare queste esternalità.

Se tutti gli altri falliscono,

Le leggi di robotica di Asimov: (0. Un robot non può danneggiare l'umanità o, per inazione, permettere all'umanità di fare del male.) 1. Un robot non può ferire un essere umano o, per inazione, consentire a un essere umano di arrivare danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nei casi in cui tali ordini sarebbero in conflitto con la Prima Legge. 3. Un robot deve proteggere la propria esistenza purché tale protezione non sia in conflitto con la Prima o la Seconda Legge

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.