C'è stata uptick recente interesse in e X plainable Un rtificial I ntelligence (XAI). Ecco la missione di XAI come indicato nella sua pagina DARPA :
Il programma Explainable AI (XAI) mira a creare una suite di tecniche di apprendimento automatico che:
- Produrre modelli più spiegabili, pur mantenendo un alto livello di prestazioni di apprendimento (accuratezza della previsione); e
- Consentire agli utenti umani di comprendere, fidarsi adeguatamente e gestire efficacemente la generazione emergente di partner artificialmente intelligenti.
L'articolo del New York Times può insegnare l'IA a spiegarsi? fa un buon lavoro nel spiegare la necessità di XAI dal punto di vista dell'interesse umano e nel fornire una visione d'insieme delle tecniche sviluppate per lo stesso. La forza dietro il movimento XAI sembra incentrarsi sul concetto (emergente?) Del diritto alla spiegazione , cioè il requisito secondo cui le applicazioni di intelligenza artificiale che incidono in modo significativo sulla vita umana attraverso le loro decisioni siano in grado di spiegare agli stakeholder i fattori / motivi che portano alla nascita a detta decisione.
In che modo è ragionevole il diritto alla spiegazione, dati gli attuali standard in base ai quali ci riteniamo responsabili?