In che modo le auto a guida autonoma possono prendere decisioni etiche su chi uccidere?


75

Ovviamente, le auto a guida autonoma non sono perfette, quindi immagina che l'auto di Google (ad esempio) abbia avuto una situazione difficile.

Ecco alcuni esempi di sfortunate situazioni causate da una serie di eventi:

  • L'auto si sta dirigendo verso una folla di 10 persone che attraversano la strada, quindi non può fermarsi in tempo, ma può evitare di uccidere 10 persone colpendo il muro (uccidendo i passeggeri),
  • Evitare di uccidere il pilota della motocicletta considerando che la probabilità di sopravvivenza è maggiore per il passeggero dell'auto,
  • Uccidere un animale per strada a favore di un essere umano,
  • Cambiare corsia per schiantarsi contro un'altra macchina per evitare di uccidere un cane,

E qui ci sono alcuni dilemmi:

  • L'algoritmo riconosce la differenza tra un essere umano e un animale?
  • Le dimensioni dell'essere umano o degli animali contano?
  • Conta quanti passeggeri ha rispetto alle persone nella parte anteriore?
  • "Sa" quando sono a bordo neonati / bambini?
  • Tiene conto dell'età (ad esempio uccidendo prima il più vecchio)?

Come potrebbe un algoritmo decidere cosa dovrebbe fare dal punto di vista tecnico? È a conoscenza di quanto sopra (contando la probabilità di uccisioni) o no (uccidendo le persone solo per evitare la propria distruzione)?

Articoli Correlati:


3
Non guiderò su alcun veicolo programmato per non rendere ME il passeggero la sua massima priorità di sicurezza. Non sono solo in questo pensiero. Se qualcuno ha in programma di costringere i costruttori di veicoli autonomi a programmare il proprio veicolo per fare qualcosa di diverso dalla priorità della sicurezza dei suoi passeggeri, allora l'intero settore potrebbe chiudere le porte ora. Le prime due volte in cui un passeggero muore a causa di un'odiosa decisione etica sarà l'ultima volta che la stragrande maggioranza delle persone acquisterà un altro veicolo autonomo. Chi vuole cavalcare in una trappola mortale?
Dunk

Il cosiddetto "problema del carrello" è un problema di pesca a traina. C'è una ragione per cui è conosciuto come un esperimento mentale piuttosto che un caso di studio: non è qualcosa che sia mai successo. Non è nemmeno vicino ad essere reale, soprattutto perché le auto non sono fondamentalmente carrelli. La risposta giusta in ogni caso a distanza applicabile è praticamente sempre "colpire i freni", e se c'è mai un'eccezione, può essere risolta solo in un modo: proteggendo gli abitanti dell'auto a tutti i costi e mai nemmeno prendendo in considerazione nient'altro , per due motivi.
Mason Wheeler,

2
Il primo, @Dunk, ha coperto abbastanza bene: il pragmatismo. Se è possibile che l'auto faccia una scelta diversa, nessuno nella loro mente giusta vorrebbe acquistarne una. Il secondo è che se c'è una funzione "uccidi tutti" integrata nel computer dell'auto, significa che è già lì per gli hacker malintenzionati da trovare e abusare. Pesare la reale possibilità che qualcuno trovi un modo per innescare ciò con un contributo contraddittorio contro l'idea puramente fittizia di una situazione legittima di problema del carrello, e c'è solo una possibile risposta che non è moralmente assurda e disgustosa.
Mason Wheeler,

Risposte:


55

In che modo le auto a guida autonoma possono prendere decisioni etiche su chi uccidere?

Non dovrebbe. Le auto a guida autonoma non sono agenti morali. Le auto falliscono in modo prevedibile. I cavalli falliscono in modo prevedibile.

l'auto si sta dirigendo verso una folla di 10 persone che attraversano la strada, quindi non può fermarsi in tempo, ma può evitare di uccidere 10 persone colpendo il muro (uccidendo i passeggeri),

In questo caso, l'auto dovrebbe sbattere sui freni. Se muoiono le 10 persone, è solo sfortunato. Semplicemente non possiamo fidarci di tutte le nostre convinzioni su ciò che sta accadendo fuori dall'auto. E se quelle 10 persone fossero davvero dei robot fatti per assomigliare alle persone? E se stanno cercando di ucciderti?

evitando di uccidere il pilota della motocicletta considerando che la probabilità di sopravvivenza è maggiore per il passeggero dell'auto,

Ancora una volta, codificare a fondo questo tipo di sentimenti in un veicolo apre il pilota del veicolo a tutti i tipi di attacchi, inclusi i motociclisti "falsi" . Gli umani sono a malapena attrezzati per prendere queste decisioni da soli, se non del tutto. In caso di dubbio, basta premere i freni.

uccidere animali per strada a favore dell'essere umano,

Ancora una volta, basta premere i freni. E se fosse un bambino? E se fosse una bomba?

cambiare corsia per schiantarsi contro un'altra macchina per evitare di uccidere un cane,

No. Il cane era nel posto sbagliato al momento sbagliato. L'altra macchina non lo era. Basta premere i freni, nel modo più sicuro possibile.

L'algoritmo riconosce la differenza tra un essere umano e un animale?

Fa un essere umano? Non sempre. E se l'essere umano ha una pistola? Cosa succede se l'animale ha i denti grandi? Non c'è contesto?

  • Le dimensioni dell'essere umano o degli animali contano?
  • Conta quanti passeggeri ha rispetto alle persone nella parte anteriore?
  • "Sa" quando sono a bordo neonati / bambini?
  • Tiene conto dell'età (ad esempio uccidendo prima il più vecchio)?

Gli umani non possono essere d'accordo su queste cose. Se chiedi a un poliziotto cosa fare in una di queste situazioni, la risposta non sarà: "Avresti dovuto deviare a sinistra, pesare tutte le parti interessate nella tua testa, valutare l'età pertinente tra tutte le parti, quindi virare leggermente a destra, e avresti salvato l'8% di vite in più ". No, il poliziotto dirà semplicemente "Avresti dovuto fermare il veicolo nel modo più rapido e sicuro possibile". Perché? Perché i poliziotti sanno che le persone normalmente non sono attrezzate per affrontare scenari di crash ad alta velocità.

Il nostro obiettivo di "auto a guida autonoma" non dovrebbe essere "un agente morale alla pari di un essere umano". Dovrebbe essere un agente con la complessità reattiva dello scarafaggio, che fallisce prevedibilmente.


Nella maggior parte di quegli scenari, le persone potenzialmente uccise sono più colpite dal danno che dall'auto / occupante della macchina - sbattere i freni sembra l'unica risposta ragionevole dal momento che l'occupante non avrebbe potuto assolutamente evitare l'incidente. Come hai sottolineato, è molto possibile utilizzare un algoritmo che si comporta uccidendo (potenzialmente) l'occupante anziché un pedone come un modo per uccidere effettivamente l'occupante, potenzialmente anche dando la colpa all'occupante, all'auto o al produttore.
Più chiaro il

49

La risposta a molte di queste domande dipende da come è programmato il dispositivo. Un computer in grado di guidare e riconoscere la strada da percorrere probabilmente avrà la capacità di distinguere visivamente un essere umano da un animale, sia esso basato su contorni, immagini o dimensioni. Con un riconoscimento dell'immagine sufficientemente nitido, potrebbe essere in grado di contare il numero e il tipo di persone in un altro veicolo. Potrebbe persino utilizzare i dati esistenti sulla probabilità di lesioni alle persone in diversi tipi di veicoli.

In definitiva, le persone non sono d'accordo sulle scelte etiche coinvolte. Forse potrebbero esserci "impostazioni etiche" che l'utente / proprietario possono configurare, come "considera solo il conteggio delle vite" rispetto a "le vite più giovani sono più preziose". Personalmente ritengo che non sia terribilmente controverso che una macchina debba danneggiarsi prima di danneggiare un essere umano, ma le persone non sono d'accordo su quanto siano importanti le vite degli animali domestici. Se le impostazioni esplicite di kill-this-first rendono le persone a disagio, le risposte potrebbero essere determinate da un questionario fornito all'utente.


2
Qualcosa nella parte più profonda della mia mente pensa che un'impostazione etica di modifica sarebbe una cattiva idea. Non sono sicuro di cosa sia diverso dal fatto che sia una macchina anziché una persona, ma giungo sempre alla conclusione che abbiamo già questo contratto non scritto di sottoscrivere decisioni etiche di una persona ogni volta che saliamo in macchina con qualcun altro.
Ian,

6
"impostazioni etiche"? Veramente? Avrai persone che lo impostano in base a ogni possibile pregiudizio "Uccidi la persona che sembra più ____" omosessuale? La gara meno amata? O cosa succede se due veicoli dei conducenti di una collisione hanno un'etica opposta? Quindi entrambi vengono eseguiti e c'è un danno estraneo aggiuntivo? Queste leggi devono essere universali (almeno all'interno di un paese), proprio come le leggi stradali.
navigator_

3
@navigator_ Spero che le opzioni fornite dal produttore siano ragionevoli.
Ben N

1
Motivo definito da chi, però? Questo è un po 'il mio punto.
navigator_

3
In realtà penso che l '"impostazione etica" sia l'unica opzione praticabile / equa, perché imita il driver specifico il più vicino possibile. Il conducente dell'auto dovrebbe quindi essere responsabile di qualsiasi cosa accada di conseguenza, come se stesse guidando. Non vedo come programmare un'auto per (es.) Mettere la vita del guidatore prima che qualcos'altro sia diverso dal guidatore che mette la sua vita prima di ogni altra cosa.
Pandora,

27

Personalmente, penso che questo potrebbe essere un problema overhyped. I problemi del carrello si verificano solo quando la situazione è ottimizzata per evitare "3a opzione".

Un'auto ha i freni, no? "Ma cosa succede se i freni non funzionano?" Bene, quindi alla macchina non è permesso guidare affatto. Anche nel traffico regolare, agli operatori umani viene insegnato che la tua velocità dovrebbe essere limitata in modo tale da poterti fermare nell'area che puoi vedere. Soluzioni come queste ridurranno la possibilità di un problema con il carrello.

Per quanto riguarda gli animali ... se non ci sono sforzi espliciti per affrontare gli esseri umani sulla strada, penso che gli animali saranno trattati allo stesso modo. Ciò sembra non plausibile: l'abilità stradale si verifica spesso e la "roadkill" umana è indesiderata, ma gli animali sono molto più piccoli e più difficili da vedere rispetto agli umani, quindi penso che rilevare gli esseri umani sarà più facile, prevenendo molti incidenti.

In altri casi (bug, guasti durante la guida, guasti multipli sovrapposti), forse si verificheranno incidenti, verranno analizzati e i veicoli verranno aggiornati per evitare di causare situazioni simili.


È sbagliato affermare che l'intelligenza artificiale guiderà solo così velocemente da potersi fermare da ciò che vedono, perché lo stesso vale anche per gli umani alla guida difensiva. Il motivo è che le ipotesi DEVONO essere fatte. Quando si supera una collina, si presume che un grosso ostacolo non sia proprio fuori dalla vista [Fonte DARPA Grand Challenge]. Queste ipotesi si basano sulle regole della strada per determinare quali azioni sono giuste. Pertanto, se si verifica un incidente, purché tu abbia seguito le regole della strada, puoi ridurre la tua responsabilità. Quindi, un'auto deve essere in grado di prendere queste decisioni, ma forse in modo limitato (proteggere il consumatore).
Harrichael,

13

Questo è il noto problema del carrello . Come ha detto Ben N , le persone non sono d'accordo sulla giusta linea d'azione per gli scenari di problemi con i trolley, ma va notato che con le auto a guida autonoma, l'affidabilità è così elevata che questi scenari sono davvero improbabili. Quindi, non ci sarà molto sforzo nei problemi che stai descrivendo, almeno a breve termine.


Mi chiedo quanto sia davvero adatto il problema del carrello per questo? Il problema del carrello è essenzialmente discreto, descrivendo una scelta `una volta per tutte ', mentre in pratica l'algoritmo deve effettuare una sequenza di scelte a incrementi di tempo (potenzialmente abbastanza piccoli), possibilmente con la disponibilità di nuove informazioni. È probabile che un utile algoritmo sia un problema di "controllo continuo" incorporato nello spazio 3D reale, che si occupa di velocità e probabilità, non di una decisione morale astratta e discreta. Se non altro, ciò significherebbe che l'implementazione non dovrebbe essere definita in termini morali così netti.
NietzscheanAI,

1
@NietzscheanAI L'idea del problema del carrello non è in quale decisione prendere, ma piuttosto su cosa prendere le tue decisioni. Dovresti prendere in considerazione hamburger, numero di persone, numero di animali, colpa, sicurezza del conducente, maggior bene, minimo cambiamento, ecc. Puoi comunque applicare le probabilità ai problemi del carrello, ad es. la via A ha il 30 percento di probabilità di uccidere 10 persone. I problemi con i carrelli in genere comportano due percorsi in modo da poter considerare su quali fattori si basa la decisione etica in modo più preciso.
Harrichael,

12

Nel mondo reale, le decisioni saranno prese in base alla legge e, come osservato in Law.SE , la legge generalmente favorisce l'inazione rispetto all'azione.


Ah, questo ha molto senso per le vittime umane. La scelta della legge sarebbe diversa se la macchina potesse sterzare per colpire un cane anziché un pedone?
Ben N

7

Per un'auto senza conducente progettata da una singola entità, il modo migliore per prendere decisioni su chi uccidere è stimando e minimizzando la probabile responsabilità.

Non ha bisogno di identificare in modo assolutamente corretto tutte le potenziali vittime nell'area per avere una difesa per la sua decisione, solo per identificarle così come ci si potrebbe aspettare da un essere umano.

Non ha nemmeno bisogno di conoscere l'età e le condizioni fisiche di tutti gli utenti dell'auto, in quanto può richiedere tali informazioni e, se rifiutato, ha la difesa che i passeggeri hanno scelto di non fornirle, e quindi si è preso la responsabilità di privarle di la capacità di prendere una decisione migliore.

Deve solo avere un modello praticabile per ridurre al minimo l'esposizione dell'entità a cause legali, che può quindi essere migliorata nel tempo per renderla più redditizia.


7

"Questa domanda morale su chi salvare: il 99 percento del nostro lavoro di ingegneria è per evitare che queste situazioni si verifichino affatto." —Christoph von Hugo, Mercedes-Benz

Questa citazione è tratta da un articolo intitolato La guida autonoma di Mercedes-Benz darà la priorità alla sicurezza degli occupanti rispetto ai pedoni pubblicata il 7 ottobre 2016 DA MICHAEL TAYLOR , recuperata l'8 novembre 2016.

Ecco un estratto che delinea la soluzione tecnologica e pratica al problema.

La casa automobilistica più antica del mondo non vede più il problema, simile alla domanda del 1967 nota come Problema del carrello, come senza risposta. Invece di legarsi a nodi morali ed etici in una crisi, Mercedes-Benz intende semplicemente programmare le sue auto a guida autonoma per salvare le persone all'interno dell'auto. Ogni volta.

Tutte le future auto autonome di livello 4 e 5 di Mercedes-Benz daranno la priorità al salvataggio delle persone che trasportano, secondo Christoph von Hugo, responsabile dei sistemi di assistenza alla guida e della sicurezza attiva della casa automobilistica.

L'articolo contiene anche il seguente affascinante paragrafo.

Neanche uno studio pubblicato a metà anno dalla rivista Science non ha chiarito la questione. La maggior parte delle persone intervistate nel 1928 pensava che sarebbe eticamente migliore per le auto autonome sacrificare i loro occupanti piuttosto che schiantarsi contro i pedoni. Tuttavia, la maggioranza ha anche affermato che non acquisterebbe auto autonome se l'auto privilegiasse la sicurezza dei pedoni rispetto alla propria.


4

Francamente penso che questo problema (il problema del carrello) sia intrinsecamente eccessivamente complicato, dal momento che la soluzione del mondo reale sarà probabilmente piuttosto semplice. Come un guidatore umano, un guidatore di intelligenza artificiale sarà programmato per agire in qualsiasi momento in modo genericamente etico, scegliendo sempre il corso di azione che non fa alcun danno o il minor danno possibile.

Se un guidatore di intelligenza artificiale incontra un pericolo come un danno imminente alla proprietà, ovviamente l'intelligenza artificiale frenerà intensamente e punterà l'auto lontano da oggetti fragili per evitare o ridurre al minimo l'impatto. Se il pericolo è colpire un pedone o un'auto o un edificio, sceglierà di scontrarsi con l'oggetto meno prezioso o costoso possibile, per fare il minimo danno - attribuendo un valore più elevato a un essere umano rispetto a un edificio o un cane.

Infine, se la scelta del conducente AI della tua auto è quella di imbattersi in un bambino o colpire un muro ... dirigerà la macchina e tu , contro il muro. Ecco cosa farebbe qualsiasi bravo essere umano. Perché una buona IA dovrebbe agire diversamente?


1
'l'IA frenerà duramente', 'sceglierà di scontrarsi con ...', se queste sono affermazioni, potresti pubblicare alcuni riferimenti? O sono basati sull'opinione?
Kenorb,

1
L'OP ha posto la domanda "Quale danno l'IA sceglierà di infliggere?". Penso che sia l'obiettivo sbagliato. Gli umani non lo fanno. Invece l'IA seguirà una strategia più generale per evitare danni e fare il minor danno possibile. Questo obiettivo di ottimizzazione è più intuitivo e più difficile da discutere quando sorgono problemi di responsabilità.
Randy,

4

Non dovrebbero. La gente dovrebbe.

Le persone non possono mettere le responsabilità delle decisioni etiche nelle mani dei computer. È nostra responsabilità come scienziati informatici / esperti di intelligenza artificiale programmare le decisioni che i computer devono prendere. Ne rimarranno ancora vittime umane? Certo, lo faranno --- le persone non sono perfette e nemmeno i programmi.

C'è un eccellente dibattito approfondito su questo argomento qui . Mi piace in particolare l'argomento di Yann LeCun sul dilemma etico parallelo di testare farmaci potenzialmente letali sui pazienti. Simile alle auto a guida autonoma, entrambi possono essere letali pur avendo buone intenzioni di salvare più persone nel lungo periodo.


4

In che modo le auto a guida autonoma possono prendere decisioni etiche su chi uccidere?

Gestendo la responsabilità legale e la sicurezza dei consumatori.

Un'auto che offre sicurezza al consumatore sarà un'auto che viene acquistata da detti consumatori. Le aziende non vogliono essere responsabili per l'uccisione dei propri clienti né vogliono vendere un prodotto che porti l'utente in situazioni legali. La responsabilità legale e la sicurezza dei consumatori sono la stessa questione se considerati dal punto di vista del "costo per il consumatore".

E qui ci sono alcuni dilemmi:

  • L'algoritmo riconosce la differenza tra un essere umano e un animale?

Se un animale / umano non può essere legalmente evitato (e la macchina è in diritto legale - se non lo è, allora qualcos'altro non va nel processo decisionale dell'IA), probabilmente non lo farà. Se l'auto può tranquillamente evitare l'ostacolo, l'IA potrebbe ragionevolmente essere vista per prendere questa decisione, cioè. svoltare su un'altra corsia su un'autostrada aperta. Si noti che l'accento è posto sulla responsabilità e sulla sicurezza del conducente.

  • Le dimensioni dell'essere umano o degli animali contano?

Solo il fattore di rischio derivante dal colpire l'ostacolo. Colpire un ippopotamo potrebbe essere meno desiderabile che colpire il fossato. Colpire un cane è probabilmente più desiderabile che distruggere l'automobile del cliente.

  • Conta quanti passeggeri ha rispetto alle persone nella parte anteriore?

Conta le persone come passeggeri per vedere se è possibile prendere la corsia del car pooling. Conta le persone davanti come un fattore di rischio in caso di collisione.

  • "Sa" quando sono a bordo neonati / bambini?

No.

  • Tiene conto dell'età (ad esempio uccidendo prima il più vecchio)?

No. Questa è semplicemente l'astrazione sbagliata per prendere una decisione, come potrebbe essere ponderata nella scelta della giusta linea d'azione per ridurre il fattore di rischio? Se l'opzione 1 viene colpita da un giovane con una probabilità del 20% di danni significativi per gli occupanti e nessuna responsabilità legale e l'opzione 2 viene colpita da un vecchio con una probabilità del 21% di danni significativi agli occupanti e nessuna responsabilità legale, allora quale filosofo può convincere anche solo 1 persona di i pesi giusti ed equi per prendere una decisione?

Per fortuna, la decisione migliore per la maggior parte del tempo è quella di colpire le pause per ridurre la velocità (soprattutto se si considera che è spesso utile agire in modo prevedibile in modo che i pedoni e gli automobilisti possano reagire di conseguenza). Nel frattempo, è possibile apportare migliori miglioramenti del valore in termini di previsione di quando i conducenti prenderanno decisioni sbagliate e quando altre azioni (come colpire il contrario) sono più vantaggiose rispetto a colpire le pause. A questo punto, non vale nemmeno la pena iniziare a raccogliere le informazioni per prendere le decisioni etiche proposte dai filosofi. Pertanto, questo problema è esagerato da giornalisti e filosofi sensazionali.


3

Penso che nella maggior parte dei casi la macchina sarebbe come impostazione predefinita ridurre la velocità come opzione principale, piuttosto che sterzare verso o lontano da una scelta specifica. Come altri hanno già detto, avere impostazioni relative all'etica è solo una cattiva idea. Cosa succede se due auto che sono programmate con impostazioni etiche opposte e stanno per scontrarsi? Le auto potrebbero potenzialmente avere un sistema per ignorare le impostazioni dell'utente e scegliere la soluzione più vantaggiosa per entrambi. È davvero un concetto interessante, che sicuramente deve essere discusso e standardizzato prima di un'implementazione diffusa. Mettere le decisioni etiche nelle mani di una macchina rende la responsabilità risultante a volte difficile da immaginare.


Sì, frenare per evitare una collisione sarebbe assolutamente la soluzione migliore. Sfortunatamente, in alcuni casi (i casi richiesti nella domanda), colpire qualcosa è inevitabile. Sembra che tu sia d'accordo con alcune risposte esistenti. Ti preghiamo di notare che vorremmo che ciascuna risposta fosse in grado di resistere da sola. Una volta che hai una reputazione sufficiente, sarai in grado di valutare le risposte che ritieni utili. Il problema di due auto configurate in modo opposto è davvero interessante; sarebbe bello se modifichi la tua risposta per espanderla. Grazie!
Ben N

Grazie mille per la tua risposta, lo apprezzo davvero e lo userò andando avanti sul sito. Non ero a conoscenza delle linee guida per le risposte.
imhotraore,

2

Penso che non ci sarebbe un modo per modificare tali impostazioni etiche in un'auto. Ma hey, se i telefoni cellulari possono essere radicati, perché non le macchine? Immagino che ci saranno build Linux in futuro per modelli specifici che ti permetteranno di fare quello che vuoi.

Per quanto riguarda chi prenderà tali decisioni, sarà molto simile ai problemi di privacy di oggi. Ci sarà un tiro alla fune sulla coperta da parte dei fornitori del sistema operativo (che proveranno a impostarlo su un numero minimo di feriti, ciascuno con i propri metodi), compagnie assicurative (che proveranno a farti pagare più per i sistemi operativi che saranno statisticamente mostrati per danneggiare più facilmente la tua auto) e per i produttori di auto (che vorranno che tu rovini la tua auto il più presto possibile, quindi ne comprerai una nuova o creerai auto che richiedono un ridicolo quantità di servizio $$$).

Quindi alcuni informatori usciranno ed esporranno un pezzo di codice che sceglie di uccidere i bambini piccoli rispetto agli adulti - perché avrà un momento più difficile distinguerli dagli animali e avrà delle possibilità di salvare chi sicuramente riconoscerà come umani. Il produttore del sistema operativo otterrà uno schiaffo dal pubblico e verrà trovato un nuovo consenso. Gli informatori usciranno anche da compagnie assicurative e case automobilistiche.

L'umanità afferrerà una padella calda e si brucerà e poi imparerà a indossare i guanti in anticipo. Il mio consiglio sarebbe semplicemente quello di non essere quella mano - stai lontano da loro per un paio d'anni fino a quando tutti i primi errori non vengono commessi.


2

L'unica scelta ragionevole è usare un comportamento prevedibile. Quindi nella gente di fronte allo scenario della macchina: prima la macchina colpisce il freno, allo stesso tempo suona il clacson e rimane sulla rotta. Le persone hanno quindi la possibilità di saltare fuori strada portando a zero persone uccise. Anche con freni completi (che vanno da 50 km all'ora a zero è inferiore a 3 lunghezze di auto), una situazione di impatto non è quasi immaginabile. Anche se non è possibile raggiungere l'arresto completo, è improbabile che si verifichino gravi danni ai pedoni.

L'altro scenario è semplicemente pazzo. Quindi la distanza deve essere inferiore a 3 lunghezze auto, almeno 1 lunghezza auto necessaria per lo sterzo, quindi un incidente d'auto è una situazione incontrollabile, potrebbe portare a girare e uccidere tutte e 11 le persone.

Oltre a dire che non credo ci sia un esempio nella realtà in cui vi sia un dilemma; la soluzione in questi casi improbabili se conformarsi alle aspettative dell'opponente per consentire anche all'altra parte di mitigare la situazione.


Puoi per favore provare a leggere la prima risposta pubblicata da Ben e poi provare a modificare la tua in linea con ciò che riguarda l'IA!
quintumnia,

puoi essere più specifico? Ho letto la prima risposta di Bens, ma non riesco a vedere come questo sia correlato. Puoi spiegarci "di cosa si occupa l'IA"?
Lalala,

Quello che volevo dire lì è essere informato sull'intelligenza artificiale, quindi la tua risposta potrebbe essere votata per il verso negativo o nulla da vedere; tua maestà!
quintumnia,

@quintumnia Questa risposta mi sembra soddisfacente (+1): andare avanti senza tentare di sterzare o prendere decisioni è una scelta valida.
Ben N
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.