Potrebbero esserci minacce esistenziali per l'umanità a causa dell'IA?


9

Stiamo facendo ricerche, trascorrendo ore a capire come possiamo far funzionare meglio il vero software AI (agenti intelligenti). Stiamo anche cercando di implementare alcune applicazioni, ad esempio nel mondo degli affari, della salute e dell'istruzione, utilizzando la tecnologia AI.

Tuttavia, finora, la maggior parte di noi ha ignorato il lato "oscuro" dell'intelligenza artificiale. Ad esempio, una persona "non etica" potrebbe acquistare migliaia di droni economici, armarli con pistole e inviarli sparando al pubblico. Questa sarebbe un'applicazione "non etica" dell'IA.

Potrebbero esserci (in futuro) minacce esistenziali per l'umanità dovute all'intelligenza artificiale?


Qualsiasi tecnologia ha il potenziale per essere una minaccia esistenziale per l'umanità.
Ankur,

Risposte:


2

Definirei l'intelligenza come una capacità di prevedere il futuro. Quindi, se qualcuno è intelligente, può prevedere alcuni aspetti del futuro e decidere cosa fare in base alle sue previsioni. Quindi, se una persona "intelligente" decide di ferire altre persone, potrebbe essere molto efficace in questo (ad esempio Hitler e il suo staff).

L'intelligenza artificiale potrebbe essere estremamente efficace nel prevedere alcuni aspetti di un futuro incerto. E questo IMHO porta a due scenari negativi:

  1. Qualcuno lo programma per ferire le persone. O per errore o di proposito.
  2. L'intelligenza artificiale sarà progettata per fare qualcosa di sicuro, ma ad un certo punto, per essere più efficace, ridisegnerà se stessa e forse rimuoverà gli ostacoli sulla sua strada. Quindi se gli umani diventano ostacoli, saranno rimossi molto rapidamente e in modo molto efficace.

Certo, ci sono anche scenari positivi, ma non ci si chiede su di essi.

Consiglio di leggere questo fantastico post sulla superintelligenza artificiale e sui possibili risultati della sua creazione: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Grazie per la tua risposta. Molto interessato a quel secondo punto. Il lato positivo, c'è un successo nel primo paragrafo, spero che tu possa vedere.
quintumnia,

4

Non c'è dubbio che l'IA ha il potenziale per rappresentare una minaccia esistenziale per l'umanità.

La più grande minaccia per l'umanità risiede nell'intelligenza artificiale superintelligente.

Un'intelligenza artificiale che supera l'intelligenza umana sarà in grado di aumentare esponenzialmente la propria intelligenza, risultando in un sistema di intelligenza artificiale che, per gli umani, sarà completamente inarrestabile.

A questo punto, se il sistema di intelligenza artificiale decide che l'umanità non è più utile, potrebbe cancellarci dalla faccia della terra.

Mentre Eliezer Yudkowsky lo inserisce nell'intelligenza artificiale come fattore positivo e negativo nel rischio globale ,

"L'intelligenza artificiale non ti odia, né ti ama, ma sei fatto di atomi che può usare per qualcos'altro."

Una diversa minaccia sta nell'istruzione di un'intelligenza artificiale altamente intelligente

Qui è utile considerare l'esperimento mentale del massimizzatore di graffette.

Un'intelligenza artificiale altamente intelligente incaricata di massimizzare la produzione di graffette potrebbe adottare le seguenti misure per raggiungere il suo obiettivo.

1) Ottieni un'esplosione di intelligenza per diventare superintelligente (questo aumenterà l'efficienza di ottimizzazione della graffetta)

2) Distruggi l'umanità in modo che non possa essere disabilitata (ciò minimizzerebbe la produzione e sarebbe inefficiente)

3) Utilizzare le risorse della Terra (incluso il pianeta stesso) per costruire robot autoreplicanti che ospitano l'IA

4) Diffuso esponenzialmente in tutto l'universo, raccogliendo pianeti e stelle simili, trasformandoli in materiali per costruire fabbriche di graffette

Chiaramente questo non è ciò che la produzione di graffette era quella dell'uomo, ma è il modo migliore per soddisfare le istruzioni dell'IA.

Ciò dimostra come i sistemi di intelligenza artificiale superintelligenti e altamente intelligenti possano essere il più grande rischio esistenziale che l'umanità possa mai affrontare.

Murray Shanahan, in The Technological Singularity , ha persino proposto che l'IA possa essere la soluzione al paradosso di Fermi: il motivo per cui non vediamo una vita intelligente nell'universo potrebbe essere che una volta che una civiltà diventa abbastanza avanzata, svilupperà un'intelligenza artificiale che alla fine distruggerà esso. Questo è noto come l'idea di un filtro cosmico .

In conclusione, l'intelligenza stessa che rende l'IA così utile la rende estremamente pericolosa.

Figure influenti come Elon Musk e Stephen Hawking hanno espresso preoccupazione per l'intelligenza artificiale superintelligente che rappresenta la più grande minaccia che dovremo mai affrontare.

Spero che risponda alla tua domanda :)

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.