Come è ragionevole il "diritto alla spiegazione"?


8

C'è stata uptick recente interesse in e X plainable Un rtificial I ntelligence (XAI). Ecco la missione di XAI come indicato nella sua pagina DARPA :

Il programma Explainable AI (XAI) mira a creare una suite di tecniche di apprendimento automatico che:

  • Produrre modelli più spiegabili, pur mantenendo un alto livello di prestazioni di apprendimento (accuratezza della previsione); e
  • Consentire agli utenti umani di comprendere, fidarsi adeguatamente e gestire efficacemente la generazione emergente di partner artificialmente intelligenti.

L'articolo del New York Times può insegnare l'IA a spiegarsi? fa un buon lavoro nel spiegare la necessità di XAI dal punto di vista dell'interesse umano e nel fornire una visione d'insieme delle tecniche sviluppate per lo stesso. La forza dietro il movimento XAI sembra incentrarsi sul concetto (emergente?) Del diritto alla spiegazione , cioè il requisito secondo cui le applicazioni di intelligenza artificiale che incidono in modo significativo sulla vita umana attraverso le loro decisioni siano in grado di spiegare agli stakeholder i fattori / motivi che portano alla nascita a detta decisione.

In che modo è ragionevole il diritto alla spiegazione, dati gli attuali standard in base ai quali ci riteniamo responsabili?


L'articolo Intelligenza artificiale (AI) Computer dice di no: perché rendere l'AI equa, responsabile e trasparente è fondamentale afferma che l' Europa è in vantaggio su altre parti del mondo nell'elaborazione di regolamenti per proteggere le persone dall'IA mal fabbricata o utilizzata . Tuttavia, questi regolamenti sono un po 'deboli: ad esempio, non si applicano ai casi in cui vi è il coinvolgimento delle persone o delle loro decisioni (a parte quelle dell'intelligenza artificiale).
nbro

Risposte:


3

In che modo è ragionevole il diritto alla spiegazione, dati gli attuali standard in base ai quali ci riteniamo responsabili?

In breve, è abbastanza ragionevole.

Più specificamente, rendere l'IA responsabile e responsabile della spiegazione della decisione sembra ragionevole perché

  • Gli umani (DARPA in questo caso) hanno scelto di creare, aumentare ed evolvere l'IA con il denaro dei contribuenti. Anche nella nostra società, ogni volta che gli umani si sono riuniti per uno scopo (qualche accordo formale come governo o altro), la responsabilità e la responsabilità sono assunte e assegnate. Pertanto, aspettarsi che l'IA (che prenderà decisioni per nostro conto) per spiegare le proprie decisioni sembra solo un'estensione naturale del modo in cui gli umani operano attualmente .

  • Gli umani ( almeno in genere ) non hanno superpoteri o risorse per controllare e manipolare il resto della popolazione. Ma quando lo fanno (come i nostri leader politici ), vogliamo che siano responsabili.

  • In rari casi, i potenti umani diventano potenti a causa di cose accessibili a tutti , mentre il superpotere dell'IA non lo sarà. Quindi, la nostra civiltà si sentirebbe più sicura e quindi meno insicura con un'intelligenza artificiale che non chiude la porta in faccia quando vengono poste domande.

Altri vantaggi dell'IA che offre una spiegazione su come viene presa una decisione

  • Molto più facile da eseguire il debug e migliorare nella sua fase iniziale.

  • Può essere ulteriormente personalizzato (e lungo la strada) per amplificare alcuni aspetti come il benessere sociale rispetto alla redditività, ecc.


0

Nel giornale Slave to the Algorithm? Perché un "diritto a una spiegazione" non è probabilmente il rimedio che stai cercando , gli autori sostengono che è improbabile che il "diritto alla spiegazione" fornisca un rimedio completo ai danni algoritmici per almeno due motivi

  1. Non è chiaro quando può essere attivato qualsiasi diritto relativo alla spiegazione

  2. Le spiegazioni richieste dalla legge, "informazioni significative sulla logica del trattamento", potrebbero non essere fornite dagli attuali metodi AI (spiegabili)

Gli autori concludono quindi che il "diritto alla spiegazione" è fonte di distrazione , ma che altre leggi del regolamento generale sulla protezione dei dati dell'Unione europea, come

  1. diritto all'oblio
  2. diritto alla portabilità dei dati
  3. privacy di progettazione

potrebbe compensare i difetti del "diritto alla spiegazione".

Per concludere, il "diritto alla spiegazione" è un tentativo di proteggere i cittadini dalle possibili conseguenze indesiderabili dell'uso dei metodi di intelligenza artificiale. Tuttavia, non è impeccabile e potrebbe essere necessario divulgare diritti più chiari.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.