Sentiamo spesso che l'intelligenza artificiale può danneggiare o addirittura uccidere gli umani, quindi potrebbe rivelarsi pericolosa.
In che modo l'intelligenza artificiale può farci del male?
Sentiamo spesso che l'intelligenza artificiale può danneggiare o addirittura uccidere gli umani, quindi potrebbe rivelarsi pericolosa.
In che modo l'intelligenza artificiale può farci del male?
Risposte:
Ci sono molte ragioni valide per cui le persone potrebbero temere (o meglio preoccuparsi ) dell'IA, non tutte coinvolgono robot e scenari apocalittici.
Per illustrare meglio queste preoccupazioni, proverò a dividerle in tre categorie.
Questo è il tipo di intelligenza artificiale a cui fa riferimento la tua domanda. Un'intelligenza artificiale super intelligente che distruggerà / renderà schiava l'umanità. Questo è per lo più portato dalla fantascienza. Alcuni importanti esempi di Hollywood sono "The terminator" , "The Matrix" , "Age of Ultron" . I romanzi più influenti sono stati scritti da Isaac Asimov e sono indicati come "Serie di robot" (che include "I, robot" , anch'esso adattato come film).
La premessa di base della maggior parte di questi lavori è che l'IA si evolverà fino a diventare consapevole e superare l'intelligenza umana. Mentre i film di Hollywood si concentrano principalmente sui robot e sulla battaglia tra loro e gli umani, non viene data sufficiente enfasi all'intelligenza artificiale effettiva (cioè il "cervello" che li controlla). Come nota a margine, a causa della narrazione, questa IA è solitamente rappresentata come un supercomputer che controlla tutto (in modo che i protagonisti abbiano un obiettivo specifico). Non è stata fatta abbastanza esplorazione sull'intelligenza ambigua (che ritengo più realistica).
Nel mondo reale, l'IA è focalizzata sulla risoluzione di compiti specifici! Un agente di intelligenza artificiale in grado di risolvere problemi di domini diversi (ad es. Comprensione del parlato, elaborazione di immagini, guida e ... - come lo sono gli umani) viene definito Intelligenza Artificiale Generale ed è necessario affinché l'IA sia in grado di "pensare" e diventare cosciente.
Realisticamente, siamo molto lontani dall'intelligenza artificiale generale! Detto questo, non ci sono prove del perché questo obiettivo non possa essere raggiunto in futuro. Quindi attualmente, anche se siamo ancora nell'infanzia dell'IA, non abbiamo motivo di credere che l'IA non evolverà fino a un punto in cui è più intelligente degli umani.
Anche se un'intelligenza artificiale alla conquista del mondo è ben lontana dall'avvenire, ci sono diversi motivi per preoccuparsi dell'IA oggi , che non coinvolgono i robot! La seconda categoria su cui voglio concentrarmi un po 'di più riguarda diversi usi malevoli dell'IA di oggi.
Mi concentrerò solo sulle applicazioni AI che sono disponibili oggi . Alcuni esempi di AI che possono essere utilizzati per scopi dannosi:
DeepFake : una tecnica per imporre il volto di qualcuno a un'immagine un video di un'altra persona. Questo ha recentemente guadagnato popolarità con il porno delle celebrità e può essere utilizzato per generare notizie false e bufale. Fonti: 1 , 2 , 3
Con l'uso di sistemi di sorveglianza di massa e software di riconoscimento facciale in grado di riconoscere milioni di volti al secondo , l'IA può essere utilizzata per la sorveglianza di massa. Anche se quando pensiamo alla sorveglianza di massa pensiamo alla Cina, molte città occidentali come Londra , Atlanta e Berlino sono tra le città più sorvegliate al mondo . La Cina ha fatto un ulteriore passo avanti adottando il sistema del credito sociale , un sistema di valutazione per i civili che sembra essere preso direttamente dalle pagine del 1984 di George Orwell.
Influenzare le persone attraverso i social media . Oltre a riconoscere i gusti degli utenti con l'obiettivo di marketing mirato e aggiungere posizionamenti (una pratica comune di molte aziende di Internet), l'IA può essere utilizzata in modo malizioso per influenzare il voto delle persone (tra le altre cose). Fonti: 1 , 2 , 3 .
Hacking .
Applicazioni militari, ad esempio attacchi di droni, sistemi di puntamento missilistico.
Questa categoria è piuttosto soggettiva, ma lo sviluppo dell'IA potrebbe comportare alcuni effetti collaterali negativi. La distinzione tra questa categoria e la precedente è che questi effetti, sebbene dannosi, non sono fatti intenzionalmente; piuttosto si verificano con lo sviluppo dell'IA. Alcuni esempi sono:
I lavori diventano ridondanti . Man mano che l'IA migliora, molti lavori verranno sostituiti dall'IA. Sfortunatamente non ci sono molte cose che possono essere fatte al riguardo, poiché la maggior parte degli sviluppi tecnologici ha questo effetto collaterale (ad esempio, le macchine agricole hanno causato la perdita di lavoro di molti agricoltori, l'automazione ha sostituito molti operai, i computer hanno fatto lo stesso).
Rafforzare la distorsione nei nostri dati . Questa è una categoria molto interessante, poiché l'IA (e in particolare le reti neurali) sono buone tanto quanto i dati su cui sono addestrati e hanno la tendenza a perpetuare e persino migliorare diverse forme di pregiudizi sociali, già esistenti nei dati. Ci sono molti esempi di reti che mostrano comportamenti razzisti e sessisti. Fonti: 1 , 2 , 3 , 4 .
Ho già detto che tutti questi sono già in pieno svolgimento?
Sebbene non vi sia una linea chiara tra AI e AGI, questa sezione riguarda maggiormente ciò che accade quando andiamo oltre verso l'AGI. Vedo due alternative:
Nel primo caso, se un'intelligenza artificiale "diventa malvagia", possiamo costruire altri AI per sconfiggerlo e neutralizzarlo. Nel secondo caso, non possiamo e siamo condannati. Gli AI saranno una nuova forma di vita e potremmo estinguerci.
Ecco alcuni potenziali problemi:
Penso che l'AGI stia arrivando e dobbiamo essere consapevoli di questi problemi in modo da poterli minimizzare.
Oltre alle altre risposte, vorrei aggiungere l'esempio di fabbrica di cookie di Nuking:
Gli IA di machine learning tentano sostanzialmente di raggiungere un obiettivo descritto dall'uomo. Ad esempio, gli umani creano un'intelligenza artificiale che gestisce una fabbrica di biscotti. L'obiettivo che implementano è quello di vendere il maggior numero possibile di cookie per il margine più redditizio.
Ora immagina un'intelligenza artificiale sufficientemente potente. Questa IA noterà che se annulla tutte le altre fabbriche di biscotti, tutti devono acquistare i biscotti nella sua fabbrica, aumentando le vendite e aumentando i profitti.
Quindi, l'errore umano qui non sta dando alcuna penalità per l'uso della violenza nell'algoritmo. Questo è facilmente trascurato perché gli umani non si aspettavano che l'algoritmo giungesse a questa conclusione.
Il mio scenario preferito per i danni causati dall'intelligenza artificiale riguarda non un'intelligenza elevata, ma un'intelligenza bassa. In particolare, l' ipotesi del goo grigio .
Qui è dove un processo automatizzato, autoreplicante, gira e converte tutte le risorse in copie di se stesso.
Il punto qui è che l'IA non è "intelligente" nel senso di avere un'intelligenza elevata o un'intelligenza generale - è semplicemente molto brava in una cosa sola e ha la capacità di replicarsi in modo esponenziale.
Direi che la più grande minaccia reale sarebbe lo squilibrio / disturbo che stiamo già vedendo. I cambiamenti nel mettere il 90% del paese senza lavoro sono reali e i risultati (che saranno una distribuzione della ricchezza ancora più disomogenea) sono terrificanti se li pensi.
Ho un esempio che va in un certo senso nella direzione opposta alle paure del pubblico, ma è una cosa molto reale, che già vedo accadere. Non è specifico per l'IA, ma penso che peggiorerà attraverso l'IA. È il problema degli umani che si fidano ciecamente delle conclusioni dell'IA in applicazioni critiche.
Abbiamo molte aree in cui gli esperti umani dovrebbero prendere una decisione. Prendiamo ad esempio la medicina: dovremmo dare la medicina X o la medicina Y? Le situazioni che ho in mente sono spesso problemi complessi (nel senso di Cynefin) in cui è davvero una buona cosa avere qualcuno che presta molta attenzione e usi molta esperienza, e il risultato è davvero importante.
C'è una richiesta per gli informatici medici di scrivere sistemi di supporto alle decisioni per questo tipo di problema nella medicina (e suppongo per lo stesso tipo in altri settori). Fanno del loro meglio, ma l'aspettativa è sempre che un esperto umano consideri sempre il suggerimento del sistema come un'opinione in più quando prende la decisione. In molti casi, sarebbe irresponsabile promettere qualcos'altro, dato lo stato delle conoscenze e le risorse disponibili per gli sviluppatori. Un esempio tipico sarebbe l'uso della visione al computer in radiomica: un paziente riceve una TAC e l'IA deve elaborare l'immagine e decidere se il paziente ha un tumore.
Certo, l'IA non è perfetta. Anche se misurato rispetto al gold standard, non raggiunge mai un'accuratezza del 100%. E poi ci sono tutti i casi in cui si comporta bene rispetto alle proprie metriche obiettivo, ma il problema era così complesso che la metrica obiettivo non lo cattura bene - Non riesco a pensare a un esempio nel contesto CT, ma suppongo lo vediamo anche qui su SE, dove gli algoritmi favoriscono la popolarità nei post, che è un proxy imperfetto per la correttezza fattuale.
Probabilmente stavi leggendo l'ultimo paragrafo e annuendo, "Sì, l'ho imparato nel primo corso introduttivo di ML che ho seguito". Indovina un po? I medici non hanno mai seguito un corso introduttivo di ML. Raramente hanno abbastanza alfabetizzazione statistica per comprendere le conclusioni degli articoli che compaiono sulle riviste mediche. Quando stanno parlando con il loro 27 ° paziente, 7 ore nel loro turno di 16 ore, affamati ed emotivamente svuotati, e la CT non sembra così chiara, ma il computer dice "non è una malignità", non lo fanno impiega altri dieci minuti per concentrarsi di più sull'immagine, oppure cerca un libro di testo o consulta un collega. Seguono semplicemente ciò che dice il computer, grati che il loro carico cognitivo non sia di nuovo alle stelle. Quindi passano da esperti a persone che leggono qualcosa da uno schermo. Peggio, in alcuni ospedali l'amministrazione non si fida solo dei computer, ma ha anche scoperto che sono comodi capri espiatori. Quindi, un medico ha una cattiva impressione che va contro l'output del computer, diventa difficile per loro agire su quell'intuizione e difendersi che hanno scelto di scavalcare l'opinione dell'IA.
Gli AI sono strumenti potenti e utili, ma ci saranno sempre attività in cui non possono sostituire il toolwielder.
Questo intende solo essere un complemento ad altre risposte, quindi non discuterò della possibilità che l'IA cerchi di asservire volontariamente l'umanità.
Ma un rischio diverso è già qui. La chiamerei tecnologia senza padrone . Mi hanno insegnato scienza e tecnologia e IMHO, l'IA non ha di per sé nozione di bene e male, né di libertà. Ma è costruito e usato dagli esseri umani e per questo può essere coinvolto un comportamento non razionale.
Vorrei iniziare con un esempio di vita reale più legato all'IT generale che all'intelligenza artificiale. Parlerò di virus o altri malware. I computer sono macchine piuttosto stupide che sono buone per elaborare rapidamente i dati. Quindi la maggior parte delle persone si affida a loro. Alcune persone (cattive) sviluppano malware che interromperanno il corretto comportamento dei computer. E sappiamo tutti che possono avere effetti terribili su organizzazioni medio-piccole che non sono ben preparate alla perdita di un computer.
L'intelligenza artificiale è basata su computer ed è quindi vulnerabile agli attacchi di tipo informatico. Qui il mio esempio sarebbe un'auto guidata dall'intelligenza artificiale. La tecnologia è quasi pronta per funzionare. Ma immagina l'effetto di un malware che rende l'auto cercando di attaccare altre persone sulla strada. Anche senza un accesso diretto al codice dell'IA, può essere attaccato da canali laterali . Ad esempio, utilizza le telecamere per leggere i segnali. Ma a causa del modo in cui viene implementato l'apprendimento automatico, l'IA generalmente non analizza una scena allo stesso modo di un essere umano. I ricercatori hanno dimostrato che era possibile cambiare un segno in modo che un normale essere umano vedrà ancora il segno originale, ma un'intelligenza artificiale ne vedrà uno diverso. Immagina ora che il segnale sia il segnale di priorità della strada ...
Quello che voglio dire è che anche se l'intelligenza artificiale non ha intenzioni malvagie, i cattivi possono provare a farlo comportare male. E alle azioni più importanti saranno delegate all'IA (medicina, automobili, aerei, non parlare di bombe) maggiore è il rischio. Detto diversamente, non temo davvero l'IA per se stessa, ma per il modo in cui può essere utilizzata dagli umani.
Penso che uno dei rischi più reali (cioè relativi agli IA attuali, esistenti) sia affidarsi ciecamente agli IA non controllati, per due motivi.
L'errore fisico nei sistemi di intelligenza artificiale può iniziare a produrre risultati selvaggiamente sbagliati nelle regioni in cui non sono stati testati perché il sistema fisico inizia a fornire valori errati. Questo a volte viene riscattato dall'autotest e dalla ridondanza, ma richiede comunque una supervisione umana occasionale.
Gli IA di autoapprendimento presentano anche una debolezza del software: le loro reti di peso o le loro rappresentazioni statistiche possono avvicinarsi ai minimi locali dove sono bloccati con un risultato errato.
Questo è fortunatamente spesso discusso, ma vale la pena menzionare: la classificazione degli input dei sistemi AI è spesso distorta perché anche il set di dati di addestramento / test era distorto. Ciò si traduce in AI non riconoscendo le persone di una certa etnia, per un esempio più ovvio. Tuttavia, ci sono casi meno ovvi che possono essere scoperti solo dopo un brutto incidente, come l'intelligenza artificiale che non riconosce alcuni dati e accende accidentalmente un incendio in una fabbrica, rompendo attrezzature o ferendo persone.
Se un robot è simile a un'interfaccia uomo-macchina, il dispositivo è lo stesso di un'auto telecomandata. È possibile discutere con l'operatore dietro il joystick e negoziare un comportamento desideroso. I robot telecomandati sono invenzioni sicure perché le loro azioni possono essere ricondotte agli umani e la loro motivazione può essere anticipata. Possono essere usati per migliorare la vita quotidiana ed è divertente giocare con loro.
Al contrario, alcuni robot non sono controllati da joystick ma stanno lavorando con un generatore di dadi interno. Il gioco dei dadi è noto per il suo ruolo sociale nel gioco d'azzardo, ma ha anche un significato mistico. Di solito, un generatore casuale è fortemente connesso con un comportamento caotico che è controllato da forze oscure al di fuori dell'influenza umana. Un dado elettronico incorporato in un robot e migliorato con l'algoritmo di apprendimento è l'opposto di un'interfaccia uomo-macchina, ma è un potenziale guastafeste perché il robot controllato casualmente giocherà con umani che non si possono prevedere. Non è possibile prevedere il prossimo numero di dadi, quindi anche il robot si comporterà bruscamente.
La connessione tra giochi controllati casualmente e impatto sociale negativo è stata spiegata nella frase seguente.
citazione: “In molte società non occidentali tradizionali i giocatori d'azzardo possono pregare gli dei per avere successo e spiegare vincite e perdite in termini di volontà divina. “Binde, Per. "Gioco d'azzardo e religione: storie di concordia e conflitto." Journal of Gambling Issues 20 (2007): 145-165.
Gli esseri umani esistono attualmente in una nicchia ecologico-economica di "la cosa che pensa".
Anche l'IA è una cosa che pensa, quindi invaderà la nostra nicchia ecologica ed economica. Sia in ecologia che in economia, avere qualcos'altro che occupa la tua nicchia non è un grande piano per la sopravvivenza continua.
Come esattamente la sopravvivenza umana sarà compromessa da questo sarà piuttosto caotico. Ci saranno molti modi plausibili in cui l'IA potrebbe mettere in pericolo la sopravvivenza umana come specie o persino come forma di vita dominante.
Supponiamo che esista un'intelligenza artificiale forte senza "superetica" che sia più economica da produrre rispetto a un essere umano (compresa la fabbricazione di un "corpo" o un modo di manipolare il mondo) e più intelligente o più intelligente di un essere umano.
Questo è un caso in cui iniziamo a competere con quell'intelligenza artificiale per le risorse. Accadrà su scala microeconomica (assumiamo un essere umano, o acquistiamo / costruiamo / affittiamo / assumiamo un'intelligenza artificiale per risolvere questo problema?). A seconda della velocità con cui gli IA diventano economici e / o più intelligenti delle persone, ciò può accadere lentamente (forse un settore alla volta) o estremamente veloce.
In una competizione capitalista, quelli che non passano agli IA più economici finiscono per competere.
Ora, a breve termine, se i vantaggi dell'IA sono solo marginali, l'alto costo dell'istruzione degli esseri umani per 20 e dispari anni prima che diventino produttivi potrebbe rallentare questo processo. In questo caso, potrebbe valere la pena pagare un medico al di sopra dei salari della fame per diagnosticare la malattia anziché un'intelligenza artificiale, ma probabilmente non vale la pena pagare i prestiti agli studenti. Quindi i nuovi dottori umani smetterebbero rapidamente di essere formati e i dottori esistenti sarebbero impoveriti. Quindi in 20-30 anni l'intelligenza artificiale sostituirà completamente i medici a fini diagnostici.
Se i vantaggi dell'IA sono grandi, sarebbe rapido. I dottori non varrebbero nemmeno la pena pagare i salari di livello di povertà per fare la diagnostica umana. Puoi vedere qualcosa del genere accadere con l'agricoltura a base muscolare quando subentrò l'agricoltura a benzina.
Durante le rivoluzioni industriali passate, il fatto che gli umani fossero in grado di pensare significa che potresti riutilizzare i lavoratori umani in eccesso per fare altre azioni; linee di produzione, posti di lavoro in economia di servizio, programmazione informatica, ecc. Ma in questo modello, l'IA è più economica da addestrare e costruire e più intelligente o più intelligente degli umani in quel tipo di lavoro.
Come evidenziato dalla primavera araba indotta dall'etanolo, le colture e le terre coltivate possono essere utilizzate per alimentare sia le macchine che gli esseri umani. Quando le macchine sono più efficienti in termini di trasformazione delle terre coltivate in lavoro utile, inizierai a vedere il prezzo del cibo salire. Questo di solito porta a rivolte, dato che alla gente non piace davvero morire di fame e sono disposti a rischiare la propria vita per rovesciare il governo al fine di prevenirlo.
Puoi molestare le persone fornendo cibo sovvenzionato e simili. Fintanto che ciò non è paralizzante dal punto di vista economico (cioè, se è abbastanza costoso, potrebbe farti battere da altri posti che non lo fanno), questo è semplicemente politicamente instabile.
In alternativa, a breve termine, la casta della proprietà che sta ricevendo profitti dall'economia sempre più efficiente gestita dall'IA può pagare una casta di polizia o militare per reprimere tali rivolte. Ciò richiede che le caste di polizia / militari siano di livello inferiore alla classe media per quanto riguarda il tenore di vita, al fine di garantire una lealtà continua: non vuoi che si uniscano ai rivoltosi.
Quindi uno dei centri di profitto a cui puoi rivolgere l'IA è quello militare e di polizia. I droni che consegnano ordigni letali e non letali basati sull'elaborazione di feed di dati visivi e di altro tipo possono ridurre il numero di forze di polizia / militari della classe media necessari per ridurre le rivolte provocate dal prezzo del cibo o altre instabilità. Come abbiamo già ipotizzato, gli IA possono avere corpi e addestramento più economici di un essere umano biologico, ciò può anche aumentare la quantità di forza che è possibile impiegare per ogni dollaro speso.
A questo punto, stiamo parlando di una polizia e di un'esercito per la maggior parte sottoposti all'intelligenza artificiale che vengono utilizzati per impedire agli umani affamati di rovesciare l'economia della corsa all'intelligenza artificiale e di cogliere i mezzi di produzione dall'uso più efficiente che viene attualmente utilizzato.
Gli umani rudimentali che "possiedono" il sistema al vertice stanno prendendo decisioni razionali a livello locale per ottimizzare la loro ricchezza e potere. Possono o meno persistere a lungo; purché esauriscano una quantità relativamente piccola di risorse e non rovinino l'economia della corsa all'intelligenza artificiale, non ci sarà molta pressione selettiva per sbarazzarsene. D'altro canto, poiché non contribuiscono in modo significativo, la loro posizione "in alto" è politicamente instabile.
Questo processo ha assunto un'intelligenza generale "forte". Gli IA più stretti possono farlo a pezzi. Un computer diagnostico efficace ed economico potrebbe ridurre la maggior parte dei medici in povertà in un periodo sorprendentemente breve, ad esempio. Le auto a guida autonoma potrebbero ingoiare il 5% -10% dell'economia. La tecnologia dell'informazione sta già inghiottendo il settore del commercio al dettaglio con un'intelligenza artificiale modesta.
Si dice che ogni progresso tecnologico porti a più e migliori posti di lavoro per gli esseri umani. E questo è vero per gli ultimi 300 anni.
Ma prima del 1900, era anche vero che ogni progresso tecnologico portava a nuovi e migliori posti di lavoro per i cavalli. Poi arrivarono l'ICE e l'automobile, e ora ci sono molti meno cavalli da lavoro; i restanti cavalli sono fondamentalmente l'equivalente dei servitori personali umani: mantenuti per la novità di "wow, cool, cavallo" e il divertimento di cavalcare e controllare un enorme animale.
Oltre alle molte risposte già fornite, vorrei sollevare la questione degli esempi contraddittori nell'area dei modelli di immagine.
Esempi contraddittori sono immagini che sono state perturbate da un rumore specificamente progettato che è spesso impercettibile per un osservatore umano, ma altera fortemente la previsione di un modello.
Esempi inclusi:
Colpisce la diagnosi prevista in una radiografia del torace
Influisce sul rilevamento dei segnali stradali necessari per i veicoli autonomi.
L'intelligenza artificiale utilizzata per risolvere un problema del mondo reale potrebbe rappresentare un rischio per l'umanità e non richiede esattamente la sensibilità, ma richiede anche un certo grado di stupidità umana.
A differenza degli umani, un'intelligenza artificiale troverebbe la risposta più logica senza il vincolo di emozione, etica o persino avidità ... Solo logica. Chiedi a questa IA come risolvere un problema creato dagli umani (ad esempio, i cambiamenti climatici) e la sua soluzione potrebbe essere quella di eliminare l'intera razza umana per proteggere il pianeta. Ovviamente ciò richiederebbe che l'IA abbia la capacità di agire in base al suo esito che mi porta al punto precedente, la stupidità umana.
L'intelligenza artificiale può farci del male in uno dei modi dell'intelligenza naturale (degli umani). La distinzione tra intelligenza naturale e artificiale svanirà quando gli umani inizieranno ad aumentare se stessi più intimamente. L'intelligenza potrebbe non caratterizzare più l'identità e diventerà un possesso illimitato. Il danno causato sarà tanto quanto gli umani possono sopportare per preservare la loro auto-identità in evoluzione.
Poche persone si rendono conto che la nostra economia globale dovrebbe essere considerata un'IA: - Le transazioni monetarie sono i segnali su una rete neurale. I nodi nella rete neurale sarebbero le diverse società o privati che pagano o ricevono denaro. - È fatto dall'uomo, quindi si qualifica come artificiale
Questa rete neurale ha un ruolo migliore rispetto agli umani: il capitalismo ha sempre vinto contro l'economia pianificata dagli umani (economia del piano).
Questa rete neurale è pericolosa? Potrebbe essere diverso se sei il CEO che guadagna in grande rispetto a un pescatore in un fiume inquinato da rifiuti aziendali.
In che modo questa IA è diventata pericolosa? Potresti rispondere è a causa dell'avidità umana. La nostra creazione riflette noi stessi. In altre parole: non abbiamo addestrato la nostra rete neurale a comportarsi bene. Invece di addestrare la rete neurale per migliorare la qualità della vita per tutti gli umani, l'abbiamo addestrata per rendere più ricchi i fumi ricchi.
Sarebbe facile addestrare questa IA a non essere più pericolosa? Forse no, forse alcuni AI sono solo più grandi della vita. È solo la sopravvivenza del più adatto.