In che modo le auto a guida autonoma possono prendere decisioni etiche su chi uccidere?
Non dovrebbe. Le auto a guida autonoma non sono agenti morali. Le auto falliscono in modo prevedibile. I cavalli falliscono in modo prevedibile.
l'auto si sta dirigendo verso una folla di 10 persone che attraversano la strada, quindi non può fermarsi in tempo, ma può evitare di uccidere 10 persone colpendo il muro (uccidendo i passeggeri),
In questo caso, l'auto dovrebbe sbattere sui freni. Se muoiono le 10 persone, è solo sfortunato. Semplicemente non possiamo fidarci di tutte le nostre convinzioni su ciò che sta accadendo fuori dall'auto. E se quelle 10 persone fossero davvero dei robot fatti per assomigliare alle persone? E se stanno cercando di ucciderti?
evitando di uccidere il pilota della motocicletta considerando che la probabilità di sopravvivenza è maggiore per il passeggero dell'auto,
Ancora una volta, codificare a fondo questo tipo di sentimenti in un veicolo apre il pilota del veicolo a tutti i tipi di attacchi, inclusi i motociclisti "falsi" . Gli umani sono a malapena attrezzati per prendere queste decisioni da soli, se non del tutto. In caso di dubbio, basta premere i freni.
uccidere animali per strada a favore dell'essere umano,
Ancora una volta, basta premere i freni. E se fosse un bambino? E se fosse una bomba?
cambiare corsia per schiantarsi contro un'altra macchina per evitare di uccidere un cane,
No. Il cane era nel posto sbagliato al momento sbagliato. L'altra macchina non lo era. Basta premere i freni, nel modo più sicuro possibile.
L'algoritmo riconosce la differenza tra un essere umano e un animale?
Fa un essere umano? Non sempre. E se l'essere umano ha una pistola? Cosa succede se l'animale ha i denti grandi? Non c'è contesto?
- Le dimensioni dell'essere umano o degli animali contano?
- Conta quanti passeggeri ha rispetto alle persone nella parte anteriore?
- "Sa" quando sono a bordo neonati / bambini?
- Tiene conto dell'età (ad esempio uccidendo prima il più vecchio)?
Gli umani non possono essere d'accordo su queste cose. Se chiedi a un poliziotto cosa fare in una di queste situazioni, la risposta non sarà: "Avresti dovuto deviare a sinistra, pesare tutte le parti interessate nella tua testa, valutare l'età pertinente tra tutte le parti, quindi virare leggermente a destra, e avresti salvato l'8% di vite in più ". No, il poliziotto dirà semplicemente "Avresti dovuto fermare il veicolo nel modo più rapido e sicuro possibile". Perché? Perché i poliziotti sanno che le persone normalmente non sono attrezzate per affrontare scenari di crash ad alta velocità.
Il nostro obiettivo di "auto a guida autonoma" non dovrebbe essere "un agente morale alla pari di un essere umano". Dovrebbe essere un agente con la complessità reattiva dello scarafaggio, che fallisce prevedibilmente.