Come sostenuto da Selvaraju et al. , ci sono tre fasi dell'evoluzione dell'IA, in cui l'interpretazione è utile.
Nelle prime fasi dello sviluppo dell'IA, quando l'IA è più debole delle prestazioni umane, la trasparenza può aiutarci a costruire modelli migliori . Può comprendere meglio come funziona un modello e ci aiuta a rispondere a diverse domande chiave. Ad esempio perché un modello funziona in alcuni casi e non in altri, perché alcuni esempi confondono il modello più di altri, perché questi tipi di modelli funzionano e gli altri no, ecc.
Quando l'IA è alla pari con le prestazioni umane e i modelli ML stanno iniziando a essere implementati in diversi settori, può aiutare a creare fiducia per questi modelli. Ne parlerò un po 'più tardi, perché penso che sia la ragione più importante.
Quando l'IA supera significativamente gli umani (ad es. AI che giocano a scacchi o Go), può aiutare con l'insegnamento automatico (ovvero imparare dall'apparecchio su come migliorare le prestazioni umane su quel compito specifico).
Perché la fiducia è così importante?
Prima di tutto, lascia che ti dia un paio di esempi di settori in cui la fiducia è fondamentale:
Nell'assistenza sanitaria, immagina una rete neurale profonda che esegue la diagnosi per una malattia specifica. Una scatola nera classica NN genererebbe semplicemente un "sì" o "no" binario. Anche se potesse superare gli umani nella pura prevedibilità, nella pratica sarebbe assolutamente inutile. E se il medico non fosse d'accordo con la valutazione del modello, non dovrebbe sapere perché il modello ha fatto tale previsione; forse ha visto qualcosa che il medico ha perso. Inoltre, se avesse fatto una diagnosi errata (ad es. Una persona malata è stata classificata come sana e non ha ricevuto il trattamento adeguato), chi si assumerebbe la responsabilità: l'utente del modello? l'ospedale? l'azienda che ha progettato il modello? Il quadro giuridico che lo circonda è un po 'sfocato.
Un altro esempio sono le auto a guida autonoma. Le stesse domande sorgono: se un'auto si schianta di chi è la colpa: l'autista? la casa automobilistica? la società che ha progettato l'IA? La responsabilità legale è la chiave per lo sviluppo di questo settore.
In effetti, questa mancanza di fiducia, secondo molti, ha ostacolato l' adozione dell'IA in molti campi (fonti: 1 , 2 , 3 ). Mentre esiste un'ipotesi corrente che con sistemi più trasparenti, interpretabili o spiegabili gli utenti saranno meglio attrezzati per comprendere e quindi fidarsi degli agenti intelligenti (fonti: 1 , 2 , 3 ).
In diverse applicazioni del mondo reale non si può semplicemente dire "funziona il 94% delle volte". Potrebbe anche essere necessario fornire una giustificazione ...
Regolamenti governativi
Diversi governi stanno lentamente procedendo a regolare l'IA e la trasparenza sembra essere al centro di tutto ciò.
Il primo a muoversi in questa direzione è l'UE, che ha stabilito diverse linee guida in cui affermano che l'IA dovrebbe essere trasparente (fonti: 1 , 2 , 3 ). Ad esempio, il GDPR afferma che se i dati di una persona sono stati soggetti a sistemi "decisionali automatizzati" o di "profilazione", ha il diritto di accedere
"informazioni significative sulla logica in questione"
( Articolo 15, GDPR UE )
Ora questo è un po 'sfocato, ma c'è chiaramente l'intenzione di richiedere una qualche forma di spiegabilità da questi sistemi. L'idea generale che l'UE sta cercando di approvare è che "se si dispone di un sistema decisionale automatizzato che influisce sulla vita delle persone, hanno il diritto di sapere perché è stata presa una determinata decisione". Ad esempio, una banca ha un'intelligenza artificiale che accetta e rifiuta le domande di prestito, quindi i richiedenti hanno il diritto di sapere perché la loro domanda è stata respinta.
Per riassumere...
Gli AI spiegabili sono necessari perché:
- Ci dà una migliore comprensione, che ci aiuta a migliorarli.
- In alcuni casi possiamo imparare dall'intelligenza artificiale come prendere decisioni migliori in alcune attività.
- Aiuta gli utenti a fidarsi dell'IA, il che porta ad una più ampia adozione dell'IA.
- AI distribuiti in un futuro (non lontano) potrebbe essere necessario essere più "trasparenti".