Le leggi di Asimov sono imperfette dal design o sono realizzabili nella pratica?


19

Le famose tre leggi della robotica di Isaac Asimov sono nate nel contesto delle storie di fantascienza di Asimov. In quelle storie, le tre leggi fungono da misura di sicurezza, al fine di evitare che situazioni inopportune o manipolate esplodano nel caos.

Il più delle volte, le narrazioni di Asimov avrebbero trovato il modo di romperle, portando lo scrittore a apportare diverse modifiche alle leggi stesse. Ad esempio, in alcune delle sue storie, ha modificato la Prima Legge , aggiunto una Quarta (o Zeroth) Legge , o addirittura rimosso tutte le Leggi del tutto .

Tuttavia, è facile sostenere che, nella cultura popolare, e persino nel campo stesso della ricerca sull'IA, le Leggi della Robotica sono prese abbastanza sul serio. Ignorando il problema secondario delle diverse interpretazioni delle leggi, soggettive e reciprocamente esclusive, ci sono argomenti che dimostrano che le leggi stesse sono intrinsecamente imperfette dal loro disegno o, in alternativa, abbastanza forti per essere utilizzate nella realtà? Allo stesso modo, un set euristico di sicurezza migliore e più rigoroso è stato progettato allo scopo?


Attenti al Killbot Hellscape! xkcd.com/1613
NietzscheanAI

Non dobbiamo dimenticare questa possibilità: xkcd.com/1450
dynrepsys,

Le leggi di Asimov sono solo un piccolo tentativo di iniziare la discussione. Per una discussione molto più approfondita, leggi "Superintelligence" di Nick Bostrom, che è tanto esaustivo quanto basato sulla conoscenza e la comprensione attuali.
Florin Andrei,

Risposte:


12

Le leggi di Asimov non sono abbastanza forti per essere utilizzate nella pratica. La forza non è nemmeno una considerazione, se si considera che dal momento che sono scritte in parole inglesi dovrebbero prima essere interpretate soggettivamente per avere alcun significato. Puoi trovare una buona discussione di questo qui .

Per trascrivere un estratto:

Come definisci queste cose? Come definisci "umano", senza prima dover prendere una posizione su quasi tutti i problemi. E se "umano" non è stato abbastanza difficile, allora devi definire "danno" e hai di nuovo lo stesso problema. Quasi tutte le definizioni inequivocabili davvero solide che dai a quelle parole - che non si basano sull'intuizione umana - portano a strane stranezze di filosofia, portando la tua intelligenza artificiale a fare qualcosa che davvero non vuoi che faccia.

Si può facilmente immaginare che Asimov fosse abbastanza intelligente da saperlo ed era più interessato alla scrittura di storie che alla progettazione di protocolli di controllo dell'IA nel mondo reale.

Nel romanzo Neuromante , è stato suggerito che gli IA potrebbero eventualmente fungere da controlli reciproci. L'imminente singolarità di Ray Kurzweil , o la possibilità di AGI iperintelligenti in altro modo, potrebbe non lasciare molta possibilità agli umani di controllare le IA, lasciando la regolamentazione tra pari come l'unica possibilità possibile.

Vale la pena notare che Eliezer Yudkowsky e altri hanno condotto un esperimento in cui Yudkowsky ha interpretato il ruolo di un'intelligenza artificiale superintelligente con la capacità di parlare, ma nessun'altra connessione al di fuori di una scatola chiusa a chiave. Gli sfidanti avevano semplicemente il compito di tenere l'IA nella scatola a tutti i costi. Yudkowsky è fuggito entrambe le volte.


Sai se qualche trascrizione degli esperimenti di Yudkowsky è mai stata pubblicata? Il link che dai (e lo scambio di email a cui si collega quindi) non sembra fornirne uno.
NietzscheanAI,

@ user217281728 No, l'ho cercato ma sembra che lo stia mantenendo, vale a dire la sua strategia nascosta per mantenere la possibilità di farlo di nuovo. Ho alcune idee su quello che ha detto e sul perché lo penso, che sarei felice di condividere se mi DM.
dynrepsys,

Ora ho fatto questo.
NietzscheanAI,

Ho l'impressione che Asimov fosse abbastanza intelligente da saperlo, ma il punto era che le semplici regole non funzionano. Indicare esempi negativi ("non si può semplicemente dire che non fa del male alle persone, che non funzionerà") è un utile lavoro di controllo dell'intelligenza artificiale nel mondo a sé stante.
Matthew Graves,

2

Asimov ha fatto le tre leggi specificatamente per dimostrare che non sono sufficienti tre leggi, non importa quanto possano sembrare ragionevoli all'inizio. Conosco un ragazzo che conosceva il ragazzo e lo ha confermato.


2
"Conosco un ragazzo che conosceva il ragazzo" ... Non hai una fonte leggermente più affidabile? Non sto dubitando della tua risposta, ma sicuramente dovrebbe già esistere una citazione adeguata in merito.
3442

Si chiamava Ben Williams. Questo è il post di Google Plus in cui ha descritto le sue opinioni su Asimov e le tre leggi: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi,

0

Considera la prima legge della robotica di Asimov:

Un robot non può ferire un essere umano o, per inazione, permettere a un essere umano di fare del male.

Tale legge è già problematica se si tiene conto delle auto a guida autonoma.

Qual è il problema qui, chiedi? Bene, probabilmente avrai familiarità con il classico esperimento di pensiero sull'etica noto come problema del carrello . La forma generale del problema è questa:

Il carrello è diretto verso di loro. Ti trovi a una certa distanza nel cortile del treno, vicino a una leva. Se si tira questa leva, il carrello passerà a un diverso set di binari. Tuttavia, noti che c'è una persona sulla corsia laterale. Hai due opzioni: (1) Non fare nulla e il carrello uccide le cinque persone sulla pista principale. (2) Tirare la leva, deviando il carrello sul binario laterale dove ucciderà una persona. Qual è la scelta corretta?

fonte: Wikipedia

Le auto a guida autonoma dovranno effettivamente implementare variazioni della vita reale sul problema del carrello, il che significa sostanzialmente che le auto a guida autonoma devono essere programmate per uccidere gli esseri umani .

Naturalmente ciò non significa che TUTTI i robot dovranno essere programmati per uccidere, ma le auto a guida autonoma sono un buon esempio di un tipo di robot che lo farà.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.