In che modo l'intelligenza artificiale può farci del male?


51

Sentiamo spesso che l'intelligenza artificiale può danneggiare o addirittura uccidere gli umani, quindi potrebbe rivelarsi pericolosa.

In che modo l'intelligenza artificiale può farci del male?


6
Questo è un po 'ampio, poiché ci sono molte ragioni e scenari suggeriti in cui l'IA potrebbe diventare pericolosa. Ad esempio, come suggerisce DuttaA sopra, gli umani possono progettare sistemi di armi intelligenti che decidono cosa prendere di mira, e questa è una vera preoccupazione in quanto è già possibile utilizzare l'IA ristretta. Forse dai più contesto alle paure specifiche che vuoi capire, citando o collegando una preoccupazione specifica che hai letto (per favore usa modifica ).
Neil Slater,

4
@NeilSlater Sì, potrebbe essere troppo ampio, ma penso che questa risposta ai.stackexchange.com/a/15462/2444 fornisca alcuni motivi plausibili. Ho modificato la domanda per rimuovere il presupposto forse sbagliato.
nbro,

2
Questa domanda riguarda specificamente la "superintelligenza" o l'IA in generale? (Ad esempio, se l'ipotetica superintelligenza, allora l'ipotetico " problema di controllo " è un problema. Tuttavia, i sistemi di armi automatizzati contemporanei non saranno superintelligenti, né veicoli autonomi, e quelli possono danneggiare gli umani.)
DukeZhou

@DukeZhou L'OP non menzionava originariamente ed esplicitamente la superintelligenza, ma suppongo si riferisse a tutto ciò che può essere considerato AI, incluso un SI.
nbro,

3
Per prima cosa, come può la normale intelligenza farti del male? La risposta è quindi la stessa.
J ...

Risposte:


47

tl; dr

Ci sono molte ragioni valide per cui le persone potrebbero temere (o meglio preoccuparsi ) dell'IA, non tutte coinvolgono robot e scenari apocalittici.

Per illustrare meglio queste preoccupazioni, proverò a dividerle in tre categorie.

AI cosciente

Questo è il tipo di intelligenza artificiale a cui fa riferimento la tua domanda. Un'intelligenza artificiale super intelligente che distruggerà / renderà schiava l'umanità. Questo è per lo più portato dalla fantascienza. Alcuni importanti esempi di Hollywood sono "The terminator" , "The Matrix" , "Age of Ultron" . I romanzi più influenti sono stati scritti da Isaac Asimov e sono indicati come "Serie di robot" (che include "I, robot" , anch'esso adattato come film).

La premessa di base della maggior parte di questi lavori è che l'IA si evolverà fino a diventare consapevole e superare l'intelligenza umana. Mentre i film di Hollywood si concentrano principalmente sui robot e sulla battaglia tra loro e gli umani, non viene data sufficiente enfasi all'intelligenza artificiale effettiva (cioè il "cervello" che li controlla). Come nota a margine, a causa della narrazione, questa IA è solitamente rappresentata come un supercomputer che controlla tutto (in modo che i protagonisti abbiano un obiettivo specifico). Non è stata fatta abbastanza esplorazione sull'intelligenza ambigua (che ritengo più realistica).

Nel mondo reale, l'IA è focalizzata sulla risoluzione di compiti specifici! Un agente di intelligenza artificiale in grado di risolvere problemi di domini diversi (ad es. Comprensione del parlato, elaborazione di immagini, guida e ... - come lo sono gli umani) viene definito Intelligenza Artificiale Generale ed è necessario affinché l'IA sia in grado di "pensare" e diventare cosciente.

Realisticamente, siamo molto lontani dall'intelligenza artificiale generale! Detto questo, non ci sono prove del perché questo obiettivo non possa essere raggiunto in futuro. Quindi attualmente, anche se siamo ancora nell'infanzia dell'IA, non abbiamo motivo di credere che l'IA non evolverà fino a un punto in cui è più intelligente degli umani.

Utilizzo dell'IA con intenzioni dannose

Anche se un'intelligenza artificiale alla conquista del mondo è ben lontana dall'avvenire, ci sono diversi motivi per preoccuparsi dell'IA oggi , che non coinvolgono i robot! La seconda categoria su cui voglio concentrarmi un po 'di più riguarda diversi usi malevoli dell'IA di oggi.

Mi concentrerò solo sulle applicazioni AI che sono disponibili oggi . Alcuni esempi di AI che possono essere utilizzati per scopi dannosi:

  • DeepFake : una tecnica per imporre il volto di qualcuno a un'immagine un video di un'altra persona. Questo ha recentemente guadagnato popolarità con il porno delle celebrità e può essere utilizzato per generare notizie false e bufale. Fonti: 1 , 2 , 3

  • Con l'uso di sistemi di sorveglianza di massa e software di riconoscimento facciale in grado di riconoscere milioni di volti al secondo , l'IA può essere utilizzata per la sorveglianza di massa. Anche se quando pensiamo alla sorveglianza di massa pensiamo alla Cina, molte città occidentali come Londra , Atlanta e Berlino sono tra le città più sorvegliate al mondo . La Cina ha fatto un ulteriore passo avanti adottando il sistema del credito sociale , un sistema di valutazione per i civili che sembra essere preso direttamente dalle pagine del 1984 di George Orwell.

  • Influenzare le persone attraverso i social media . Oltre a riconoscere i gusti degli utenti con l'obiettivo di marketing mirato e aggiungere posizionamenti (una pratica comune di molte aziende di Internet), l'IA può essere utilizzata in modo malizioso per influenzare il voto delle persone (tra le altre cose). Fonti: 1 , 2 , 3 .

  • Hacking .

  • Applicazioni militari, ad esempio attacchi di droni, sistemi di puntamento missilistico.

Effetti avversi dell'IA

Questa categoria è piuttosto soggettiva, ma lo sviluppo dell'IA potrebbe comportare alcuni effetti collaterali negativi. La distinzione tra questa categoria e la precedente è che questi effetti, sebbene dannosi, non sono fatti intenzionalmente; piuttosto si verificano con lo sviluppo dell'IA. Alcuni esempi sono:

  • I lavori diventano ridondanti . Man mano che l'IA migliora, molti lavori verranno sostituiti dall'IA. Sfortunatamente non ci sono molte cose che possono essere fatte al riguardo, poiché la maggior parte degli sviluppi tecnologici ha questo effetto collaterale (ad esempio, le macchine agricole hanno causato la perdita di lavoro di molti agricoltori, l'automazione ha sostituito molti operai, i computer hanno fatto lo stesso).

  • Rafforzare la distorsione nei nostri dati . Questa è una categoria molto interessante, poiché l'IA (e in particolare le reti neurali) sono buone tanto quanto i dati su cui sono addestrati e hanno la tendenza a perpetuare e persino migliorare diverse forme di pregiudizi sociali, già esistenti nei dati. Ci sono molti esempi di reti che mostrano comportamenti razzisti e sessisti. Fonti: 1 , 2 , 3 , 4 .


4
Non capisco perché "i lavori in licenziamento" siano fonte di grave preoccupazione. Quanto sarebbe bello il mondo se nessuno (o almeno la stragrande maggioranza degli umani) non avesse bisogno di lavorare e potesse invece concentrarsi sui propri hobby e godersi la vita.
Kukis,

4
@kukis Come puoi ottenere cibo, casa, ecc. senza lavoro, a meno che tu non sia già ricco? Un lavoro significa sopravvivenza per la maggior parte delle persone.
nbro,

6
Per quanto riguarda i lavori in esubero, sembra che possiamo fare qualcosa al riguardo, ad esempio rinnovare i nostri modelli economici per non fare affidamento sul fatto che gli umani abbiano un lavoro. Voglio dire, se i nostri sistemi economici si guastassero dopo essere stati inondati da un ampio lavoro a basso costo, allora sono ovviamente imperfetti. E dato che prevediamo che questo difetto diventerà pericoloso nel prossimo futuro, dovrebbe essere risolto.
Nat

2
Un altro esempio di dove l'IA potrebbe causare problemi importanti è il trading azionario. La stragrande maggioranza delle azioni di borsa in questi giorni è fatta da AI sempre più competitivi, che possono reagire molto più velocemente rispetto ai commercianti umani. Ma è arrivato al punto in cui anche gli umani che li hanno scritti non capiscono necessariamente il motivo per cui queste IA prendono le decisioni che prendono, e ci sono stati alcuni effetti catastrofici sui mercati da algoritmi di previsione delle azioni andati male.
Darrel Hoffman,

8
@penelope non tutti i lavori che AI ​​tenta di sostituire sono "a basso interesse". Direi che ci sono molti lavori ad alta richiesta che potrebbero essere sostituiti in un futuro (non così lontano). Alcuni esempi sono medici, commercianti e piloti. Se l'intelligenza artificiale continua ad avanzare e migliora nella diagnosi delle malattie, non sarebbe irragionevole pensare che i posti di lavoro dei dottori verranno ridotti.
Djib2011,

14

Breve termine

  • Incidenti fisici , ad esempio dovuti a macchinari industriali, pilota automatico di aeromobili, auto a guida autonoma. Soprattutto in caso di situazioni insolite come condizioni meteorologiche estreme o guasti del sensore. In genere un'intelligenza artificiale funzionerà male in condizioni in cui non è stata ampiamente testata.
  • Impatti sociali come la riduzione della disponibilità di posti di lavoro, le barriere per i soggetti svantaggiati. prestiti, assicurazioni, parole.
  • I motori di raccomandazione ci stanno manipolando sempre di più per cambiare i nostri comportamenti (oltre a rafforzare le nostre bolle "piccolo mondo"). I motori di raccomandazione forniscono regolarmente contenuti inappropriati di vario genere ai bambini piccoli, spesso perché i creatori di contenuti (ad es. Su YouTube) usano il giusto ripieno di parole chiave per sembrare adatti ai bambini.
  • Manipolazione politica ... Ho detto abbastanza, credo.
  • Negabilità plausibile dell'invasione della privacy . Ora che l'IA può leggere la tua e-mail e persino fare telefonate per te, è facile per qualcuno che gli umani agiscano sulle tue informazioni personali e affermino di avere un computer per farlo.
  • Trasformare la guerra in un videogioco , vale a dire sostituire i soldati con macchine gestite da remoto da qualcuno che non è in pericolo ed è molto lontano dalle sue vittime.
  • La mancanza di trasparenza . Confidiamo che le macchine prendano decisioni con pochi mezzi per ottenere la giustificazione dietro una decisione.
  • Consumo di risorse e inquinamento. Questo non è solo un problema di intelligenza artificiale, tuttavia ogni miglioramento dell'intelligenza artificiale sta creando una maggiore domanda di Big Data e, insieme, ciò comporta la necessità di archiviazione, elaborazione e rete. Oltre al consumo di elettricità e minerali rari, l'infrastruttura deve essere smaltita dopo diversi anni di vita.
  • Sorveglianza - con l'ubiquità di smartphone e dispositivi di ascolto, c'è una miniera d'oro di dati ma troppa per setacciare ogni pezzo. Ottieni un'intelligenza artificiale per setacciarla, ovviamente!
  • Sicurezza informatica: i criminali informatici sfruttano sempre più l'intelligenza artificiale per attaccare i propri obiettivi.

Ho già detto che tutti questi sono già in pieno svolgimento?

Lungo termine

Sebbene non vi sia una linea chiara tra AI e AGI, questa sezione riguarda maggiormente ciò che accade quando andiamo oltre verso l'AGI. Vedo due alternative:

  • O sviluppiamo AGI come risultato della nostra migliore comprensione della natura dell'intelligenza,
  • o schiaffeggiamo qualcosa che sembra funzionare ma non capiamo molto bene, proprio come un sacco di apprendimento automatico in questo momento.

Nel primo caso, se un'intelligenza artificiale "diventa malvagia", possiamo costruire altri AI per sconfiggerlo e neutralizzarlo. Nel secondo caso, non possiamo e siamo condannati. Gli AI saranno una nuova forma di vita e potremmo estinguerci.

Ecco alcuni potenziali problemi:

  • Copia e incolla. Un problema con AGI è che potrebbe in teoria essere eseguito su un computer desktop, il che crea una serie di problemi:
    • Script Kiddies : le persone potrebbero scaricare un'intelligenza artificiale e impostare i parametri in modo distruttivo. In relazione a,
    • I gruppi criminali o terroristici sarebbero in grado di configurare un'intelligenza artificiale a loro piacimento. Non è necessario trovare un esperto nella fabbricazione di bombe o armi biologiche se è possibile scaricare un'intelligenza artificiale, dirgli di fare qualche ricerca e quindi fornirti istruzioni dettagliate.
    • IA autoreplicante : ci sono molti giochi per computer al riguardo. L'IA si scatena e si diffonde come un virus. Maggiore è la potenza di elaborazione, migliore è la capacità di proteggersi e diffondersi ulteriormente.
  • Invasione di risorse informatiche . È probabile che una maggiore potenza di calcolo sia vantaggiosa per un'intelligenza artificiale. Un'intelligenza artificiale potrebbe acquistare o rubare risorse del server o risorse di desktop e dispositivi mobili. Portato all'estremo, ciò potrebbe significare che tutti i nostri dispositivi diventerebbero semplicemente inutilizzabili, il che provocherebbe immediatamente il caos nel mondo. Potrebbe anche significare un enorme consumo di elettricità (e sarebbe difficile "staccare la spina" perché le centrali elettriche sono controllate da computer!)
  • Fabbriche automatizzate. Un AGI che desidera ottenere una presenza fisica maggiore nel mondo potrebbe assumere fabbriche per produrre robot in grado di costruire nuove fabbriche e fondamentalmente creare corpi per sé.
  • Queste sono considerazioni piuttosto filosofiche, ma alcuni sostengono che l'IA distruggerebbe ciò che ci rende umani:
    • Inferiorità. E se un sacco di entità di intelligenza artificiale fossero più intelligenti, più veloci, più affidabili e più creative dei migliori umani?
    • Inutilità. Con i robot che sostituiscono la necessità del lavoro fisico e gli IA che sostituiscono la necessità del lavoro intellettuale, non avremo davvero nulla da fare. Nessuno riceverà di nuovo il premio Nobel perché l'IA sarà già in vantaggio. Perché anche essere istruiti in primo luogo?
    • Monocultura / stagnazione - in vari scenari (come un singolo "benevolo dittatore" AGI) la società potrebbe essere fissata in un modello perpetuo senza nuove idee o alcun tipo di cambiamento (per quanto piacevole possa essere). Fondamentalmente, Brave New World.

Penso che l'AGI stia arrivando e dobbiamo essere consapevoli di questi problemi in modo da poterli minimizzare.


1
Penso che il tipo di intelligenza artificiale in grado di riprogrammare le fabbriche per costruire robot per se stesso sia molto lontano. La moderna "AI" è un riconoscimento di pattern davvero sofisticato.
user253751

Ho detto "a lungo termine" e "AGI". L'AGI è, per definizione, ben oltre il sofisticato riconoscimento di schemi. E sebbene il "riconoscimento di schemi sofisticati" sia di gran lunga la cosa più comune usata nelle applicazioni del mondo reale, c'è già molto lavoro in altre direzioni (in particolare la decomposizione dei problemi / pianificazione dell'azione, che l'IMO è il perno di questi tipi di scenari. )
Artelius,

8

Oltre alle altre risposte, vorrei aggiungere l'esempio di fabbrica di cookie di Nuking:

Gli IA di machine learning tentano sostanzialmente di raggiungere un obiettivo descritto dall'uomo. Ad esempio, gli umani creano un'intelligenza artificiale che gestisce una fabbrica di biscotti. L'obiettivo che implementano è quello di vendere il maggior numero possibile di cookie per il margine più redditizio.

Ora immagina un'intelligenza artificiale sufficientemente potente. Questa IA noterà che se annulla tutte le altre fabbriche di biscotti, tutti devono acquistare i biscotti nella sua fabbrica, aumentando le vendite e aumentando i profitti.

Quindi, l'errore umano qui non sta dando alcuna penalità per l'uso della violenza nell'algoritmo. Questo è facilmente trascurato perché gli umani non si aspettavano che l'algoritmo giungesse a questa conclusione.


8
Questo mi ricorda un esempio del mondo reale che ho visto su reddit una volta in cui qualcuno stava addestrando un'intelligenza artificiale per salire alcune scale in Unity. Scoprì che poteva premere se stesso nel terreno con molta forza e la fisica avrebbe avuto problemi, facendolo volare in aria ed essere il più veloce in cima.
GammaGames

2
O, peggio ancora, deciderebbe che gli esseri umani sono fatti di atomi che sarebbero meglio usati per produrre biscotti.
nick012000,

Ho già sentito questa discussione. Uno degli errori della previsione di un giorno del giudizio dell'IA è che non possiamo prevedere cosa farà l'IA. È del tutto possibile che l'IA riconosca che l'annullamento di altre società produttrici di cookie potrebbe far cadere l'economia globale e distruggere qualsiasi potenziale domanda di biscotti ... Legge di economia, offerta e domanda
Zakk Diaz,

8

Il mio scenario preferito per i danni causati dall'intelligenza artificiale riguarda non un'intelligenza elevata, ma un'intelligenza bassa. In particolare, l' ipotesi del goo grigio .

Qui è dove un processo automatizzato, autoreplicante, gira e converte tutte le risorse in copie di se stesso.

Il punto qui è che l'IA non è "intelligente" nel senso di avere un'intelligenza elevata o un'intelligenza generale - è semplicemente molto brava in una cosa sola e ha la capacità di replicarsi in modo esponenziale.


3
FWIW, gli umani sono già grigi. Siamo egoisti grigi egoisti che non vogliono essere sostituiti da un grigio ancora più efficiente.
user253751

1
@immibis Questo è ovviamente un POV filosofico, non un dato di fatto. Ci sono molte persone che differenziano tra umani e macchine autoreplicanti / autosufficienti. I film sugli zombi non avrebbero molto successo se la maggioranza avesse a cuore la tua definizione =)
Stian Yttervik,

1
@immibis Hai letto l' articolo di goo grigio su Wikipedia a cui fa riferimento questa risposta? Il termine si riferisce a macchine non intelligenti (nano) che vanno male, non a nessun comportamento intelligente. Quindi direi di no, gli umani non lo sono (e nemmeno l'IA), dal momento che non abbiamo mangiato Albert Einstein quando potevamo.
Kubanczyk,

@kubanczyk il significato fondamentale del termine "intelligenza" sembra ampiamente frainteso, sia nel mondo accademico che nel pubblico in generale. L'intelligenza è uno spettro, generalmente relativo (ad altri meccanismi decisionali), e si basa sull'utilità di una determinata decisione nel contesto di un problema. La sostanza grigia sarebbe intelligente, solo che l'intelligenza sarebbe limitata e ristretta.
DukeZhou

5

Direi che la più grande minaccia reale sarebbe lo squilibrio / disturbo che stiamo già vedendo. I cambiamenti nel mettere il 90% del paese senza lavoro sono reali e i risultati (che saranno una distribuzione della ricchezza ancora più disomogenea) sono terrificanti se li pensi.


2
La gente ha detto la stessa cosa durante la rivoluzione industriale che ha reso ridondanti la maggior parte dei lavori agricoli. Anche se potresti non sbagliarti, ed è qualcosa di cui sono preoccupato personalmente, la ricerca che studia le tendenze mostra che questo potrebbe non essere un problema ed è probabile che si aprano nuovi posti di lavoro.
Programmdude,

@Programmdude - Penso che ci sia una differenza fondamentale tra i cambiamenti della rivoluzione industriale e persino l'eliminazione dei lavori di segreteria attraverso l'avvento della P con ciò che accadrà nei prossimi decenni.
Mayo,

2
@Programmdude E le persone avevano ragione. La rivoluzione industriale ha cambiato tutto ciò che riguarda il modo in cui le persone vivono, è stata estremamente dirompente in termini di distribuzione della ricchezza e capacità delle persone di esistere con un reddito agricolo. Dall'altro punto di vista: i proprietari di schiavi che guardano indietro da alcune centinaia di anni in futuro probabilmente non vedranno gli effetti dell'IA su questo periodo come dirompenti dal momento che ha formato la loro situazione.
Bill K,

@BillK Sono stato con te fino alla parte sui proprietari di schiavi. Sai che gli AI non sono autocoscienti, giusto?
Ray,

@Ray non intendevo gli AI, intendevo le persone che controllavano gli AI (e quindi avrebbero avuto tutta la ricchezza), e davvero era solo un modo per sottolineare che le cose potrebbero essere incomprensibilmente diverse da noi, ma non sarebbe ' lo sento diverso guardando indietro.
Bill K,

5

Ho un esempio che va in un certo senso nella direzione opposta alle paure del pubblico, ma è una cosa molto reale, che già vedo accadere. Non è specifico per l'IA, ma penso che peggiorerà attraverso l'IA. È il problema degli umani che si fidano ciecamente delle conclusioni dell'IA in applicazioni critiche.

Abbiamo molte aree in cui gli esperti umani dovrebbero prendere una decisione. Prendiamo ad esempio la medicina: dovremmo dare la medicina X o la medicina Y? Le situazioni che ho in mente sono spesso problemi complessi (nel senso di Cynefin) in cui è davvero una buona cosa avere qualcuno che presta molta attenzione e usi molta esperienza, e il risultato è davvero importante.

C'è una richiesta per gli informatici medici di scrivere sistemi di supporto alle decisioni per questo tipo di problema nella medicina (e suppongo per lo stesso tipo in altri settori). Fanno del loro meglio, ma l'aspettativa è sempre che un esperto umano consideri sempre il suggerimento del sistema come un'opinione in più quando prende la decisione. In molti casi, sarebbe irresponsabile promettere qualcos'altro, dato lo stato delle conoscenze e le risorse disponibili per gli sviluppatori. Un esempio tipico sarebbe l'uso della visione al computer in radiomica: un paziente riceve una TAC e l'IA deve elaborare l'immagine e decidere se il paziente ha un tumore.

Certo, l'IA non è perfetta. Anche se misurato rispetto al gold standard, non raggiunge mai un'accuratezza del 100%. E poi ci sono tutti i casi in cui si comporta bene rispetto alle proprie metriche obiettivo, ma il problema era così complesso che la metrica obiettivo non lo cattura bene - Non riesco a pensare a un esempio nel contesto CT, ma suppongo lo vediamo anche qui su SE, dove gli algoritmi favoriscono la popolarità nei post, che è un proxy imperfetto per la correttezza fattuale.

Probabilmente stavi leggendo l'ultimo paragrafo e annuendo, "Sì, l'ho imparato nel primo corso introduttivo di ML che ho seguito". Indovina un po? I medici non hanno mai seguito un corso introduttivo di ML. Raramente hanno abbastanza alfabetizzazione statistica per comprendere le conclusioni degli articoli che compaiono sulle riviste mediche. Quando stanno parlando con il loro 27 ° paziente, 7 ore nel loro turno di 16 ore, affamati ed emotivamente svuotati, e la CT non sembra così chiara, ma il computer dice "non è una malignità", non lo fanno impiega altri dieci minuti per concentrarsi di più sull'immagine, oppure cerca un libro di testo o consulta un collega. Seguono semplicemente ciò che dice il computer, grati che il loro carico cognitivo non sia di nuovo alle stelle. Quindi passano da esperti a persone che leggono qualcosa da uno schermo. Peggio, in alcuni ospedali l'amministrazione non si fida solo dei computer, ma ha anche scoperto che sono comodi capri espiatori. Quindi, un medico ha una cattiva impressione che va contro l'output del computer, diventa difficile per loro agire su quell'intuizione e difendersi che hanno scelto di scavalcare l'opinione dell'IA.

Gli AI sono strumenti potenti e utili, ma ci saranno sempre attività in cui non possono sostituire il toolwielder.


Se stai cercando altri esempi, la controversia sull'uso dell'apprendimento automatico per prevedere i tassi di recidiva dei richiedenti per cauzione o libertà condizionale è buona. Concordo sul fatto che non dovremmo aspettarci che medici e giudici dispongano dei livelli di competenza statistica necessari per comprendere l'IA, oltre alle loro competenze mediche e legali. I progettisti di intelligenza artificiale dovrebbero essere consapevoli della fallibilità dei loro algoritmi e fornire una chiara guida ai propri utenti. Forse dire al medico dove guardare la TAC invece di dare loro direttamente il risultato.
Iraq

4

Questo intende solo essere un complemento ad altre risposte, quindi non discuterò della possibilità che l'IA cerchi di asservire volontariamente l'umanità.

Ma un rischio diverso è già qui. La chiamerei tecnologia senza padrone . Mi hanno insegnato scienza e tecnologia e IMHO, l'IA non ha di per sé nozione di bene e male, né di libertà. Ma è costruito e usato dagli esseri umani e per questo può essere coinvolto un comportamento non razionale.

Vorrei iniziare con un esempio di vita reale più legato all'IT generale che all'intelligenza artificiale. Parlerò di virus o altri malware. I computer sono macchine piuttosto stupide che sono buone per elaborare rapidamente i dati. Quindi la maggior parte delle persone si affida a loro. Alcune persone (cattive) sviluppano malware che interromperanno il corretto comportamento dei computer. E sappiamo tutti che possono avere effetti terribili su organizzazioni medio-piccole che non sono ben preparate alla perdita di un computer.

L'intelligenza artificiale è basata su computer ed è quindi vulnerabile agli attacchi di tipo informatico. Qui il mio esempio sarebbe un'auto guidata dall'intelligenza artificiale. La tecnologia è quasi pronta per funzionare. Ma immagina l'effetto di un malware che rende l'auto cercando di attaccare altre persone sulla strada. Anche senza un accesso diretto al codice dell'IA, può essere attaccato da canali laterali . Ad esempio, utilizza le telecamere per leggere i segnali. Ma a causa del modo in cui viene implementato l'apprendimento automatico, l'IA generalmente non analizza una scena allo stesso modo di un essere umano. I ricercatori hanno dimostrato che era possibile cambiare un segno in modo che un normale essere umano vedrà ancora il segno originale, ma un'intelligenza artificiale ne vedrà uno diverso. Immagina ora che il segnale sia il segnale di priorità della strada ...

Quello che voglio dire è che anche se l'intelligenza artificiale non ha intenzioni malvagie, i cattivi possono provare a farlo comportare male. E alle azioni più importanti saranno delegate all'IA (medicina, automobili, aerei, non parlare di bombe) maggiore è il rischio. Detto diversamente, non temo davvero l'IA per se stessa, ma per il modo in cui può essere utilizzata dagli umani.


3

Penso che uno dei rischi più reali (cioè relativi agli IA attuali, esistenti) sia affidarsi ciecamente agli IA non controllati, per due motivi.

1. I sistemi di intelligenza artificiale possono degradare

L'errore fisico nei sistemi di intelligenza artificiale può iniziare a produrre risultati selvaggiamente sbagliati nelle regioni in cui non sono stati testati perché il sistema fisico inizia a fornire valori errati. Questo a volte viene riscattato dall'autotest e dalla ridondanza, ma richiede comunque una supervisione umana occasionale.

Gli IA di autoapprendimento presentano anche una debolezza del software: le loro reti di peso o le loro rappresentazioni statistiche possono avvicinarsi ai minimi locali dove sono bloccati con un risultato errato.

2. I sistemi di intelligenza artificiale sono di parte

Questo è fortunatamente spesso discusso, ma vale la pena menzionare: la classificazione degli input dei sistemi AI è spesso distorta perché anche il set di dati di addestramento / test era distorto. Ciò si traduce in AI non riconoscendo le persone di una certa etnia, per un esempio più ovvio. Tuttavia, ci sono casi meno ovvi che possono essere scoperti solo dopo un brutto incidente, come l'intelligenza artificiale che non riconosce alcuni dati e accende accidentalmente un incendio in una fabbrica, rompendo attrezzature o ferendo persone.


Questa è una buona risposta contemporanea. L'intelligenza artificiale "black box" come le reti neurali è impossibile da testare in modo assoluto, il che le rende meno prevedibili al 100% e, per estensione, meno affidabili al 100%. Non sappiamo mai quando un'intelligenza artificiale svilupperà una strategia alternativa a un determinato problema e in che modo questa strategia alternativa ci influenzerà, e questo è un problema enorme se vogliamo fare affidamento sull'intelligenza artificiale per compiti importanti come guidare auto o gestire risorse.
laancelot,

1

Se un robot è simile a un'interfaccia uomo-macchina, il dispositivo è lo stesso di un'auto telecomandata. È possibile discutere con l'operatore dietro il joystick e negoziare un comportamento desideroso. I robot telecomandati sono invenzioni sicure perché le loro azioni possono essere ricondotte agli umani e la loro motivazione può essere anticipata. Possono essere usati per migliorare la vita quotidiana ed è divertente giocare con loro.

Al contrario, alcuni robot non sono controllati da joystick ma stanno lavorando con un generatore di dadi interno. Il gioco dei dadi è noto per il suo ruolo sociale nel gioco d'azzardo, ma ha anche un significato mistico. Di solito, un generatore casuale è fortemente connesso con un comportamento caotico che è controllato da forze oscure al di fuori dell'influenza umana. Un dado elettronico incorporato in un robot e migliorato con l'algoritmo di apprendimento è l'opposto di un'interfaccia uomo-macchina, ma è un potenziale guastafeste perché il robot controllato casualmente giocherà con umani che non si possono prevedere. Non è possibile prevedere il prossimo numero di dadi, quindi anche il robot si comporterà bruscamente.

La connessione tra giochi controllati casualmente e impatto sociale negativo è stata spiegata nella frase seguente.

citazione: “In molte società non occidentali tradizionali i giocatori d'azzardo possono pregare gli dei per avere successo e spiegare vincite e perdite in termini di volontà divina. “Binde, Per. "Gioco d'azzardo e religione: storie di concordia e conflitto." Journal of Gambling Issues 20 (2007): 145-165.


1

Gli esseri umani esistono attualmente in una nicchia ecologico-economica di "la cosa che pensa".

Anche l'IA è una cosa che pensa, quindi invaderà la nostra nicchia ecologica ed economica. Sia in ecologia che in economia, avere qualcos'altro che occupa la tua nicchia non è un grande piano per la sopravvivenza continua.

Come esattamente la sopravvivenza umana sarà compromessa da questo sarà piuttosto caotico. Ci saranno molti modi plausibili in cui l'IA potrebbe mettere in pericolo la sopravvivenza umana come specie o persino come forma di vita dominante.


Supponiamo che esista un'intelligenza artificiale forte senza "superetica" che sia più economica da produrre rispetto a un essere umano (compresa la fabbricazione di un "corpo" o un modo di manipolare il mondo) e più intelligente o più intelligente di un essere umano.

Questo è un caso in cui iniziamo a competere con quell'intelligenza artificiale per le risorse. Accadrà su scala microeconomica (assumiamo un essere umano, o acquistiamo / costruiamo / affittiamo / assumiamo un'intelligenza artificiale per risolvere questo problema?). A seconda della velocità con cui gli IA diventano economici e / o più intelligenti delle persone, ciò può accadere lentamente (forse un settore alla volta) o estremamente veloce.

In una competizione capitalista, quelli che non passano agli IA più economici finiscono per competere.

Ora, a breve termine, se i vantaggi dell'IA sono solo marginali, l'alto costo dell'istruzione degli esseri umani per 20 e dispari anni prima che diventino produttivi potrebbe rallentare questo processo. In questo caso, potrebbe valere la pena pagare un medico al di sopra dei salari della fame per diagnosticare la malattia anziché un'intelligenza artificiale, ma probabilmente non vale la pena pagare i prestiti agli studenti. Quindi i nuovi dottori umani smetterebbero rapidamente di essere formati e i dottori esistenti sarebbero impoveriti. Quindi in 20-30 anni l'intelligenza artificiale sostituirà completamente i medici a fini diagnostici.

Se i vantaggi dell'IA sono grandi, sarebbe rapido. I dottori non varrebbero nemmeno la pena pagare i salari di livello di povertà per fare la diagnostica umana. Puoi vedere qualcosa del genere accadere con l'agricoltura a base muscolare quando subentrò l'agricoltura a benzina.

Durante le rivoluzioni industriali passate, il fatto che gli umani fossero in grado di pensare significa che potresti riutilizzare i lavoratori umani in eccesso per fare altre azioni; linee di produzione, posti di lavoro in economia di servizio, programmazione informatica, ecc. Ma in questo modello, l'IA è più economica da addestrare e costruire e più intelligente o più intelligente degli umani in quel tipo di lavoro.

Come evidenziato dalla primavera araba indotta dall'etanolo, le colture e le terre coltivate possono essere utilizzate per alimentare sia le macchine che gli esseri umani. Quando le macchine sono più efficienti in termini di trasformazione delle terre coltivate in lavoro utile, inizierai a vedere il prezzo del cibo salire. Questo di solito porta a rivolte, dato che alla gente non piace davvero morire di fame e sono disposti a rischiare la propria vita per rovesciare il governo al fine di prevenirlo.

Puoi molestare le persone fornendo cibo sovvenzionato e simili. Fintanto che ciò non è paralizzante dal punto di vista economico (cioè, se è abbastanza costoso, potrebbe farti battere da altri posti che non lo fanno), questo è semplicemente politicamente instabile.

In alternativa, a breve termine, la casta della proprietà che sta ricevendo profitti dall'economia sempre più efficiente gestita dall'IA può pagare una casta di polizia o militare per reprimere tali rivolte. Ciò richiede che le caste di polizia / militari siano di livello inferiore alla classe media per quanto riguarda il tenore di vita, al fine di garantire una lealtà continua: non vuoi che si uniscano ai rivoltosi.

Quindi uno dei centri di profitto a cui puoi rivolgere l'IA è quello militare e di polizia. I droni che consegnano ordigni letali e non letali basati sull'elaborazione di feed di dati visivi e di altro tipo possono ridurre il numero di forze di polizia / militari della classe media necessari per ridurre le rivolte provocate dal prezzo del cibo o altre instabilità. Come abbiamo già ipotizzato, gli IA possono avere corpi e addestramento più economici di un essere umano biologico, ciò può anche aumentare la quantità di forza che è possibile impiegare per ogni dollaro speso.

A questo punto, stiamo parlando di una polizia e di un'esercito per la maggior parte sottoposti all'intelligenza artificiale che vengono utilizzati per impedire agli umani affamati di rovesciare l'economia della corsa all'intelligenza artificiale e di cogliere i mezzi di produzione dall'uso più efficiente che viene attualmente utilizzato.

Gli umani rudimentali che "possiedono" il sistema al vertice stanno prendendo decisioni razionali a livello locale per ottimizzare la loro ricchezza e potere. Possono o meno persistere a lungo; purché esauriscano una quantità relativamente piccola di risorse e non rovinino l'economia della corsa all'intelligenza artificiale, non ci sarà molta pressione selettiva per sbarazzarsene. D'altro canto, poiché non contribuiscono in modo significativo, la loro posizione "in alto" è politicamente instabile.

Questo processo ha assunto un'intelligenza generale "forte". Gli IA più stretti possono farlo a pezzi. Un computer diagnostico efficace ed economico potrebbe ridurre la maggior parte dei medici in povertà in un periodo sorprendentemente breve, ad esempio. Le auto a guida autonoma potrebbero ingoiare il 5% -10% dell'economia. La tecnologia dell'informazione sta già inghiottendo il settore del commercio al dettaglio con un'intelligenza artificiale modesta.

Si dice che ogni progresso tecnologico porti a più e migliori posti di lavoro per gli esseri umani. E questo è vero per gli ultimi 300 anni.

Ma prima del 1900, era anche vero che ogni progresso tecnologico portava a nuovi e migliori posti di lavoro per i cavalli. Poi arrivarono l'ICE e l'automobile, e ora ci sono molti meno cavalli da lavoro; i restanti cavalli sono fondamentalmente l'equivalente dei servitori personali umani: mantenuti per la novità di "wow, cool, cavallo" e il divertimento di cavalcare e controllare un enorme animale.


1

Oltre alle molte risposte già fornite, vorrei sollevare la questione degli esempi contraddittori nell'area dei modelli di immagine.

Esempi contraddittori sono immagini che sono state perturbate da un rumore specificamente progettato che è spesso impercettibile per un osservatore umano, ma altera fortemente la previsione di un modello.

Esempi inclusi:


0

L'intelligenza artificiale utilizzata per risolvere un problema del mondo reale potrebbe rappresentare un rischio per l'umanità e non richiede esattamente la sensibilità, ma richiede anche un certo grado di stupidità umana.

A differenza degli umani, un'intelligenza artificiale troverebbe la risposta più logica senza il vincolo di emozione, etica o persino avidità ... Solo logica. Chiedi a questa IA come risolvere un problema creato dagli umani (ad esempio, i cambiamenti climatici) e la sua soluzione potrebbe essere quella di eliminare l'intera razza umana per proteggere il pianeta. Ovviamente ciò richiederebbe che l'IA abbia la capacità di agire in base al suo esito che mi porta al punto precedente, la stupidità umana.


0

L'intelligenza artificiale può farci del male in uno dei modi dell'intelligenza naturale (degli umani). La distinzione tra intelligenza naturale e artificiale svanirà quando gli umani inizieranno ad aumentare se stessi più intimamente. L'intelligenza potrebbe non caratterizzare più l'identità e diventerà un possesso illimitato. Il danno causato sarà tanto quanto gli umani possono sopportare per preservare la loro auto-identità in evoluzione.


0

Poche persone si rendono conto che la nostra economia globale dovrebbe essere considerata un'IA: - Le transazioni monetarie sono i segnali su una rete neurale. I nodi nella rete neurale sarebbero le diverse società o privati ​​che pagano o ricevono denaro. - È fatto dall'uomo, quindi si qualifica come artificiale

Questa rete neurale ha un ruolo migliore rispetto agli umani: il capitalismo ha sempre vinto contro l'economia pianificata dagli umani (economia del piano).

Questa rete neurale è pericolosa? Potrebbe essere diverso se sei il CEO che guadagna in grande rispetto a un pescatore in un fiume inquinato da rifiuti aziendali.

In che modo questa IA è diventata pericolosa? Potresti rispondere è a causa dell'avidità umana. La nostra creazione riflette noi stessi. In altre parole: non abbiamo addestrato la nostra rete neurale a comportarsi bene. Invece di addestrare la rete neurale per migliorare la qualità della vita per tutti gli umani, l'abbiamo addestrata per rendere più ricchi i fumi ricchi.

Sarebbe facile addestrare questa IA a non essere più pericolosa? Forse no, forse alcuni AI sono solo più grandi della vita. È solo la sopravvivenza del più adatto.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.