Perché l'etica non è più integrata negli attuali sistemi di intelligenza artificiale?


9

Sono uno studente di dottorato in informatica e attualmente sto creando una panoramica all'avanguardia delle applicazioni fatte in Machine Ethics (un campo multidisciplinare che combina filosofia e intelligenza artificiale, che mira a creare programmi o agenti etici espliciti). Sembra che il campo contenga principalmente argomenti teorici e ci siano relativamente poche implementazioni, anche se ci sono molte persone con un background tecnico nel campo.

Capisco che, poiché sono coinvolti l'etica, non esiste una verità di base e poiché fa parte della filosofia ci si può perdere nel discutere su quale tipo di etica debba essere attuata e su come ciò possa essere fatto meglio. Tuttavia, nell'informatica, è normale provare anche una semplice implementazione per mostrare le possibilità o i limiti del proprio approccio.

Quali sono le possibili ragioni per cui si fa così poco nell'implementare esplicitamente l'etica nell'intelligenza artificiale e sperimentarla?


2
Esempi di approcci sono disponibili in questo e in questo documento di sintesi.
Suzanne,

Risposte:


2

Questa è necessariamente una risposta di alto livello e altamente speculativa, ma ho pensato a questa domanda, ed ecco i miei pensieri:

  • L'implementazione di algoritmi etici richiede una base matematica per la filosofia perché i computer sono motori di differenza

Dopo il famoso fallimento di Russell & Whitehead e il teorema di incompletezza di Gödel, ciò sembrerebbe problematico.

  • L'intelligenza artificiale è un campo molto applicato, soprattutto oggi per la continua convalida dell'apprendimento profondo, e nessuna azienda vuole avvicinarsi al problema dell'etica a meno che non sia costretta

Quindi, lo vedi nelle auto a guida autonoma perché gli ingegneri non hanno altra scelta che affrontare il problema. Al contrario, non credo che vedrete molte società di trading di titoli algoritmici, in cui il business è l' efficienza di Pareto , preoccupandosi dell'etica o dell'impatto sociale della speculazione finanziaria. (La soluzione ai "crash flash" sembra essere stata quella delle regole per la sospensione temporanea del trading, invece di affrontare il valore sociale del trading algoritmico ad alta frequenza.) Un esempio più ovvio sono le società di social media che ignorano le quantità estreme di abuso di informazioni (disinformazione e disinformazione) che vengono pubblicati sui loro siti, sostenendo l'ignoranza, il che è altamente sospetto in quanto l'attività generata dall'abuso di informazioni influisce positivamente sui loro profitti.

  • I campi applicati tendono principalmente a essere guidati dal profitto

La direttiva principale delle società è quella di restituire un profitto agli investitori. Non è insolito che le multinazionali infrangano la legge quando si prevede che multe e sanzioni siano inferiori al profitto realizzato da attività illegali. (C'è il concetto di etica negli affari, ma la cultura in generale sembra giudicare le persone e le aziende in base a quanti soldi fanno, indipendentemente dai mezzi.)

  • L'implementazione dell'etica della macchina viene esplorata nelle aree in cui sono necessarie per vendere il prodotto, ma altrove è ancora in gran parte ipotetico

Se le superintelligenze si evolvono e spazzano via l'umanità (come ci avvisano alcune persone molto intelligenti con abilità matematiche superiori), la mia sensazione è che sarà una funzione della natura, dove l'evoluzione illimitata di questi algoritmi è dovuta a driver economici che si concentrano su iper automi di parte in settori come la speculazione finanziaria e la guerra autonoma. In sostanza, inseguendo i profitti a tutti i costi, indipendentemente dagli impatti.


Introito interessante, l'aspetto del profitto! Non ci avevo pensato da quando ero così concentrato sulle ragioni della ricerca, ma ha senso che non vi sia alcuna pressione da parte dell'industria né per la ricerca di proseguire ulteriormente.
Suzanne il

@SuzanneTolmeijer Grazie. Ho approfondito il modo in cui la teoria dei giochi si collega all'etica da alcuni anni. (Principalmente la prima filosofia in cui, ad esempio, si diceva che "equilibrio" fosse il "buono" - l'equilibrio è una funzione di equilibrio e può essere precisamente definito matematicamente. Si riferisce all'economia in quanto la stabilità è generalmente intesa come ottimale, dove l'instabilità è potenzialmente catastrofica.) Ma io non sono l'unico collaboratore dell'IA che ha toccato i driver economici in questo campo, e i potenziali pericoli di ciò che sto definendo "Iperpartita AI".
DukeZhou

1

Sento parte del problema sul perché c'è ben poco in termini di implementazioni etiche delle tecnologie AI / ML, è semplicemente perché non c'è bisogno o una corretta applicazione dei quadri teorici.

Con questo intendo, non ci sono modi sostanziali in cui possiamo applicare questa comprensione ad algoritmi e modelli che non possono interagire in modo significativo. Abbiamo un quadro teorico così ampio sulla sicurezza / etica dell'IA perché è estremamente importante. Dobbiamo elaborare linee guida sicure per implementare un'intelligenza artificiale forte prima che venga creata.

Alcuni articoli molto mirati hanno iniziato a restringere i problemi nella creazione di sistemi di IA etici / sicuri. Vedi Problemi concreti in Sicurezza AI


Sembra esserci la necessità di un'etica esplicita, almeno molti ricercatori chiedono il progresso dell'etica esplicita (ad esempio Moor 2006 ). In termini di corretta applicazione dei quadri teorici, potresti avere ragione: l'implementazione implica una certa interpretazione in alcuni casi, il che può rivelarsi difficile. Tuttavia, l'utente accetta che le linee guida sicure per l'IA sono importanti, il che significa linee guida pratiche su ciò che consideriamo "giusto" o "etico" per le nostre macchine. Queste linee guida implicheranno come implementare l'etica nelle macchine in qualche modo.
Suzanne,

1

Con il metodo dell'imitazione, il comportamento più appropriato può essere integrato nell'intelligenza artificiale. L'intelligenza artificiale può essere rimodellata quando cambia la posizione etica. È usato a scopo ideologico o per raccogliere informazioni. Non è chiaro quale sia il robot.


1

Possiamo prendere il modello di errore in ragioniere. Riconoscere il pregiudizio e la varianza tra le prestazioni nell'ambito delle reti neurali può essere un primo passo. E quindi possiamo discutere se tale prestazione è consentita. Per quanto ne sappiamo, praticare l'etnia richiede uno studio empirico e sul campo. non possiamo semplicemente prendere razionali e saggi di carta per determinare se le azioni delle macchine apprese sono sbagliate o no. Può essere ulteriormente suddiviso in incidenti, errori o persino bug creati dagli sviluppatori.


Un punto interessante che sollevi qui è fondamentalmente, quali misure possono essere utilizzate per testare il sistema e come determinare se il sistema funziona correttamente? Questo è qualcosa che manca sul campo, e penso che sia davvero parte del problema: come testare il tuo sistema senza una verità fondamentale? Quali (dimensioni in) misure hanno senso nel contesto di algoritmi etici espliciti? Senza questo, non hai modo di confrontare i sistemi, il che limita i progressi nel campo.
Suzanne,

1

Intuitivamente, sembra che ci siano poche ricerche sull'implementazione dell'etica dell'IA perché:

  1. La società nel suo complesso sembra concordare comodamente sul fatto che lo stato attuale dell'intelligenza artificiale non è abbastanza forte da essere considerato cosciente o senziente. Quindi non abbiamo bisogno di dargli diritti etici (ancora).

  2. L'implementazione del comportamento etico in un programma richiede un metodo affinché i computer siano in grado di interpretare il "significato", che non sappiamo ancora come fare.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.