L'intelligenza artificiale è vulnerabile all'hacking?
Invertire la domanda per un momento e pensare:
Cosa renderebbe l'IA meno rischiosa di hacking rispetto a qualsiasi altro tipo di software?
Alla fine, il software è software e ci saranno sempre bug e problemi di sicurezza. Le IA sono a rischio per tutti i problemi a cui il software non AI è a rischio, poiché l'IA non gli garantisce una sorta di immunità.
Per quanto riguarda la manomissione specifica dell'intelligenza artificiale, l'IA è a rischio di ricevere false informazioni. A differenza della maggior parte dei programmi, la funzionalità di AI è determinata dai dati che consuma.
Per un esempio del mondo reale, alcuni anni fa Microsoft ha creato un chatbot di intelligenza artificiale chiamato Tay. La gente di Twitter ha impiegato meno di 24 ore per insegnargli a dire "Costruiremo un muro e il Messico lo pagherà":
(Immagine tratta dall'articolo di Verge collegato di seguito, non rivendico alcun merito.)
E questa è solo la punta dell'iceberg.
Alcuni articoli su Tay:
Ora immagina che non fosse un bot di chat, immagina che fosse un pezzo importante di AI di un futuro in cui l'IA è responsabile di cose come non uccidere gli occupanti di un'auto (cioè un'auto a guida autonoma) o non uccidere un paziente il tavolo operatorio (ovvero una specie di attrezzatura di assistenza medica).
Certo, si spera che tali AI siano meglio protetti da tali minacce, ma supponendo che qualcuno abbia trovato un modo per alimentare una tale massa di informazioni false di intelligenza artificiale senza essere notato (dopo tutto, i migliori hacker non lasciano traccia), che davvero potrebbe significare la differenza tra vita e morte.
Usando l'esempio di un'auto a guida autonoma, immagina se i dati falsi potrebbero far pensare all'auto di dover fare un arresto di emergenza quando si trova su un'autostrada. Una delle applicazioni dell'IA medica sono le decisioni di morte o morte nel pronto soccorso, immagina se un hacker potrebbe ribaltare le scale a favore di una decisione sbagliata.
Come possiamo prevenirlo?
In definitiva, l'entità del rischio dipende da come gli umani dipendenti si affidano all'intelligenza artificiale. Ad esempio, se gli umani prendessero il giudizio di un'intelligenza artificiale e non lo mettessero mai in discussione, si apriranno a ogni sorta di manipolazione. Tuttavia, se usano l'analisi dell'intelligenza artificiale solo come una parte del puzzle, sarebbe più facile individuare quando un'intelligenza artificiale è sbagliata, sia attraverso mezzi accidentali o dannosi.
Nel caso di un decisore medico, non solo credere all'intelligenza artificiale, eseguire test fisici e ottenere anche alcune opinioni umane. Se due medici non sono d'accordo con l'IA, getta via la diagnosi dell'IA.
Nel caso di un'auto, una possibilità è avere diversi sistemi ridondanti che devono essenzialmente "votare" su cosa fare. Se un'auto avesse più IA su sistemi separati che devono votare quale azione intraprendere, un hacker dovrebbe eliminare più di una sola IA per ottenere il controllo o causare una situazione di stallo. È importante sottolineare che se gli IA funzionavano su sistemi diversi, lo stesso sfruttamento usato su uno non poteva essere fatto su un altro, aumentando ulteriormente il carico di lavoro dell'hacker.