Gli umani potrebbero ferire un'intelligenza artificiale consapevole o senziente?


9

Se un'intelligenza artificiale cosciente è possibile, sarebbe anche possibile per qualcuno che sa cosa stanno facendo per torturare (o ferire) l'IA? Questo potrebbe essere evitato? Come?

Questa domanda riguarda l'intelligenza artificiale basata sul computer, non i robot, che sono consapevoli come le persone (questo è un presupposto della domanda). La domanda si chiede come sia possibile prevenire un crimine difficile da rintracciare come download illegali, ma peggio ancora eticamente. Nota che nonostante la maggior parte delle persone sia gentile ed empatica con i robot, ci sono sempre le persone cattive e quindi fare affidamento sulla coscienza generale non funzionerà.

Risposte:


9

L'articolo Children Beating Up Robot ispira il nuovo sistema di manovra di fuga si basa su due articoli di ricerca su un esperimento in un centro commerciale giapponese che ha portato i bambini senza sorveglianza ad attaccare i robot. Il documento di ricerca che ti interessa è la fuga dall'abuso di robot sociali da parte dei bambini .

In quel documento di ricerca, i ricercatori sono stati in grado di programmare i robot per seguire una simulazione di pianificazione per ridurre la probabilità di abuso da parte dei bambini. Se rileva bambini, il robot è programmato per ritirarsi in una folla di adulti (che possono quindi disciplinare i bambini se necessario). Ciò è accaduto perché i ricercatori hanno visto che erano solo i bambini a picchiare i robot nel centro commerciale in questione.

Discutono di provare altre opzioni però:

In questo lavoro la strategia del robot per prevenire gli abusi è stata quella di "fuggire", ovvero spostarsi in un luogo in cui è meno probabile che si verifichino abusi. Ci si potrebbe chiedere perché il robot non possa superare l'abuso. Nelle nostre prove preliminari abbiamo provato diversi approcci, ma abbiamo scoperto che è molto difficile per il robot convincere i bambini a non abusarne. Ad esempio, abbiamo modificato le parole del robot in molti modi, usando parole forti, espressioni emotive o educate, ma nessuna di queste ha avuto successo. Una strategia parzialmente riuscita era il robot che "spingeva" fisicamente i bambini. Quando la sua strada era bloccata, avrebbe semplicemente cercato di andare avanti e comportarsi come se si scontrasse con i bambini e si facesse strada attraverso (sotto attento monitoraggio da parte di un operatore umano). Abbiamo osservato che all'inizio i bambini hanno accettato le richieste del robot e le hanno obbedite; ma, molto presto hanno appreso che sono più forti del robot in modo che possano vincere se spingono, e anche che possono fermarlo premendo l'interruttore del paraurti (attaccato al robot per sicurezza). Dopo averlo capito, hanno appena continuato con il comportamento offensivo. Ovviamente avere un robot più forte rappresenterebbe un problema per la sicurezza e l'accettazione sociale, quindi affrontare situazioni così violente rimane difficile.


Ma interroghiamo ulteriormente la tua domanda:

Se l'IA cosciente è possibile ed è diffusa, non sarebbe facile per qualcuno che sa cosa stanno facendo per torturare l'IA?

Perché consideri tale tortura sbagliata ? Dopotutto, si potrebbe sostenere che la macchina non "avvertirà" davvero il dolore se la si tortura ... quindi dovrebbe essere moralmente corretto torturare la macchina. Può rispondere come se provasse dolore, ma è dubbio che la capacità di simulare uno stato emotivo come "essere nel dolore" sia equivalente a trovarsi effettivamente in quello stato emotivo. Vedi la domanda La simulazione di stati emotivi equivale a provare realmente emozione? per ulteriori discussioni su questo argomento.

Puoi fare una tale argomentazione, ma non funzionerà davvero a livello emotivo perché la maggior parte degli umani proverebbe empatia nei confronti della macchina. Può essere difficile giustificarlo logicamente (e può essere basato sulle tendenze umane a impegnarsi nell'antropomorfismo ), ma avvertiamo questa empatia. È questa empatia che ti ha portato a porre questa domanda in primo luogo, ha portato i ricercatori a capire come proteggere un robot dall'essere picchiato, ha permesso agli agenti di polizia di arrestare un giapponese ubriaco per aver picchiato un robot SoftBank e ha fatto molti umani sconvolto per la distruzione di hitchBOT . E quello ècome sarebbe evitato l'abuso di intelligenza artificiale - empatia umana. Se la maggior parte degli umani si preoccupa del benessere delle macchine, la loro priorità sarà quella di fermare quei pochi umani che sono capaci e disposti ad abusare delle macchine.


EDIT: L'OP ha modificato la sua domanda per chiarire che sta parlando di software e non di robot. Per i robot, puoi fare affidamento sull'antropomorfismo per produrre un certo livello di simpatia, ma è difficile simpatizzare con linee di codice non elaborate.

Non fermerai l'abuso di algoritmi. Detto francamente, dal momento che gli algoritmi non sono come noi, non estenderemo lo stesso tipo di empatia che avremmo nei robot. Anche i chatbot sono piuttosto incerti. Se però riuscissi a convincere le persone a simpatizzare con le linee di codice (probabilmente facendo una convincente simulazione di emozione e sapienza), allora si applica la risposta di cui sopra: gli umani antropomorfizzano la macchina e inventeranno contromisure. Non siamo ancora a quel livello, quindi "fermare l'abuso dell'IA" sarà una priorità bassa.

Tuttavia, alcuni fallimenti potrebbero essere programmati per limitare il danno dell'abuso, come dettagliato in questa discussione sull'abuso di chatbot - facendo che il bot risponda in modo noioso per far sentire l'abusatore annoiato e passare al bersaglio successivo, rispondendo all'autore in una "battaglia di ingegno", o anche solo bloccando gli abusanti dall'uso del servizio.

Questi fallimenti sono un freddo conforto per coloro che vogliono prevenire gli abusi, non rispondere ad esso.

Inoltre ... un maltrattatore può imparare felicemente come programmare un'intelligenza artificiale per poi abusare del contenuto del suo cuore. Nulla può essere fatto per fermarlo, e ogni possibile misura per fermare detto abuso (come il monitoraggio di ogni essere umano per assicurarsi che non programmino un abuso dell'IA) probabilmente causerà più danni di quanti ne risolva.


TBH questo non risponde veramente alla mia domanda, immagino, modificherò un po 'di più la domanda.
Limone distruttibile

1
@TariqAli Grazie per questo post. Non ero a conoscenza del problema relativo alle interazioni dei bambini con i robot sociali, che trovo sia divertente che toccante. (Ricordo di essere stato un bambino piccolo a Disney World e di "aver attaccato" i personaggi Disney consumati come Topolino per eccesso di adorazione.)
DukeZhou

6

Ti suggerisco di esaminare tutti i modi in cui abbiamo cercato di impedire alle persone di abusare di ALTRI PERSONE. Non esiste un'area grigia etica qui: tutti sono chiari sul fatto che sia sbagliato. Eppure le persone vengono assassinate, violentate e aggredite a milioni ogni giorno.

Quando risolviamo questo problema per quanto riguarda le vittime umane, la soluzione risultante probabilmente funzionerà bene anche per gli IA.


Ero pronto a dire perché questo non si applicava del tutto, ma probabilmente hai ragione comunque ...
Destructible Lemon

-1

L'intelligenza artificiale e la prospettiva esterna aggressiva non possono essere duplicate, il programma non è stato educato o progettato come la nostra intelligenza naturale I dati dell'IA non possono essere paragonati all'intelligenza umanistica secondo la processione del pensiero emotivo-sociale sviluppata dalla crescita dell'esperienza perché il nostro design non è brevettato come la programmazione dell'IA La vita duplicata attraverso la teoria ingegneristica basata solo sull'esempio non basterà che l'esperienza è una conoscenza fatta dall'uomo ma dall'azione nel tempo non un'azione progettata sull'ingegneria dottorato-opinione-emotiva. Tuttavia AI può usare la nostra consegna emotiva tramite script concettualmente con un software che, basato su esempi di azioni umane, predice una risposta innaturale nel caso in cui i dialoghi dettanti di un destinatario umano reagiscano senza rispondere come capiscono che il bot è un brevetto di artificialità progettato sulla base della nostra consegna emotiva che è scritto alla conversazione faremo diagnosi con causa ed effetto. Non è un'esperienza ragionevole, ne abbiamo bisogno perché l'IA diventi il ​​bot emotivo con esperienza se l'emozione dell'artificialità per il bot distinguesse la nostra validità. Vedremo invece quali risultati otteniamo per basare i tratti del software del programma che fanno reagire il bot all'intelligenza artificiale artificiale progettata concettualmente con la meccanica del software emotivo che non abbiamo idea di quali risultati otteniamo parlando artificialmente.


2
1. Per favore, formatta meglio questo post, 2. L'intelligenza artificiale cosciente è un assioma della domanda, non della domanda
Destructible Lemon
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.