Perché Stephen Hawking dice "L'intelligenza artificiale ci ucciderà tutti"? [chiuso]


10

Questa citazione di Stephen Hawking è stata nei titoli per un po 'di tempo:

L'intelligenza artificiale potrebbe spazzare via l'umanità quando diventa troppo intelligente poiché gli umani saranno come le formiche.

Perché dice questo? Per dirla semplicemente in parole povere: quali sono le possibili minacce dell'IA? Se sappiamo che l'IA è così pericolosa, perché la stiamo ancora promuovendo? Perché non è vietato?

Quali sono le conseguenze negative della cosiddetta singolarità tecnologica ?


1
Forse questa domanda potrebbe essere riformulata in una domanda sulla possibilità della singolarità tecnologica?
Rob Murray,

1
@ R.Murray Modificato e aggiunto il tuo punto al corpo ...
tatan,

2
Mi dispiace, ma il mio voto negativo. Per favore, per favore, per favore fai domande rispondenti invece di domande speculative. Voglio dire "Perché Stephen Hawking dice" L'intelligenza artificiale ci ucciderà tutti "?". Quale pensi che sia la risposta giusta ? Abbiamo bisogno di domande tecniche fin dalla prima beta per attirare esperti, piuttosto che chiunque abbia conoscenze di base leggendo alcune pagine di Wikipedia. Ancora una volta citando: "Perché Stephen Hawking dice" L'intelligenza artificiale ci ucciderà tutti "?". Non credo sia necessaria alcuna competenza per rispondere a questo. Scusami se mi sono imbattuto come maleducato nel mio piccolo rant: P
Rushat Rai

La domanda è migliore dopo la modifica, ma sarebbe utile ridurre il numero di domande poste in una sola volta. Ad esempio, potresti chiedere "In che modo l'IA può spazzare via l'umanità?" (come sembra che tu stia facendo), ma perché è ancora oggetto di ricerche così approfondite è una domanda diversa.
Ben N

2
Penso che la domanda nel titolo non sia una cattiva domanda. Ha una risposta, perché sta chiedendo cosa pensa Stephen Hawking. Le altre domande nel corpo sono diverse da questa e dovrebbero essere rimosse. Concordo però sul fatto che questo non è il tipo di domanda che attirerebbe gli esperti
Duro

Risposte:


5

Non è solo Hawking, senti variazioni su questo ritornello da molte persone. E dato che sono per lo più persone molto intelligenti, istruite e ben informate (Elon Musk è un altro, per esempio), probabilmente non dovrebbe essere scartato.

Ad ogni modo, l'idea di base sembra essere questa: se creiamo un'intelligenza artificiale "reale", ad un certo punto, sarà in grado di migliorarsi, il che migliora la sua capacità di migliorare se stesso, il che significa che può migliorare la sua capacità di migliorarsi anche di più, e così via ... una cascata in fuga che porta alla "intelligenza sovrumana". Vale a dire, portando a qualcosa di più intelligente di noi area.

Quindi cosa succede se esiste un'entità su questo pianeta che è letteralmente più intelligente di noi (umani)? Sarebbe una minaccia per noi? Bene, sembra certamente ragionevole ipotizzare che potrebbe essere così. OTOH, non abbiamo un motivo particolare, in questo momento, per pensare che sarà così.

Quindi sembra che Hawking, Musk, ecc. Stiano semplicemente scendendo dal lato più cauto / spaventoso delle cose. Dal momento che non sappiamo se un'intelligenza artificiale sovrumana sia pericolosa o meno e dato che potrebbe essere inarrestabile se dovesse diventare dannosa (ricordate, è più intelligente di noi!), È una cosa ragionevole da prendere in considerazione.

Anche Eliezer Yudkowsky ha scritto parecchio su questo argomento, incluso il famoso esperimento "AI Box". Penso che chiunque sia interessato a questo argomento dovrebbe leggere parte del suo materiale.

http://www.yudkowsky.net/singularity/aibox/


1
Penso che l'AI Box sia in realtà una cattiva introduzione al rischio AI; si rivolge a una piccola parte specifica della spiegazione, che è "come si potrebbe mai essere convinti a far uscire un'intelligenza artificiale?". Per qualcuno che pensa che valga la pena usare l'IA, hanno già deciso che vale la pena lasciarlo fuori dalla scatola. La tesi di ortogonalità è probabilmente il miglior punto di partenza, credo.
Matthew Graves,

Giusto. Mi capita solo di avere più familiarità con gli scritti di Yudkowsky. Non intendo certamente diminuire l'importanza di altri lavori su questo argomento.
mindcrime

4

Perché non sapeva ancora quanto sia lontana l'IA attuale ... Lavorando in un laboratorio di intelligenza artificiale per i media, ho questa domanda molto. Ma davvero ... siamo ancora molto lontani da questo. I robot fanno ancora tutto ciò che li descriviamo dettagliatamente. Invece di vedere il robot come intelligente, guarderei al programmatore umano per dove la creatività accade davvero.


La valutazione dell'onestà dello stato della ricerca è uno dei pilastri per il progresso. Grazie. Sono d'accordo.
FauChristian,

3

In parole povere, quali sono le possibili minacce dell'IA?

Attualmente non ci sono minacce.

La minaccia arriva se gli umani creano una cosiddetta macchina ultraintelligente, una macchina che può superare tutte le attività intellettuali di qualsiasi essere umano. Questa sarebbe l'ultima invenzione che l'uomo dovrebbe fare, dal momento che questa macchina è migliore nell'inventare macchine rispetto agli umani (poiché si tratta di un'attività intellettuale). Tuttavia, ciò potrebbe indurre la macchina a inventare macchine che possono distruggere gli esseri umani e non possiamo fermarli perché sono molto più intelligenti di noi.

Tutto questo è ipotetico, nessuno ha nemmeno la minima idea di come sia una macchina ultraintelligente.

Se sappiamo che l'IA è così pericolosa, perché la stiamo ancora promuovendo? Perché non è vietato?

Come ho detto prima, l'esistenza di una macchina ultraintelligente è ipotetica. L'intelligenza artificiale ha molte applicazioni utili (più di quanto questa risposta possa contenere) e, se la sviluppiamo, otteniamo applicazioni ancora più utili. Dobbiamo solo fare attenzione che le macchine non ci sorpassino.


3

Come ha detto Andrew Ng , preoccuparsi di tale minaccia da parte dell'IA è come preoccuparsi della sovrappopolazione su Marte. È fantascienza.

inserisci qui la descrizione dell'immagine

Detto questo, data l'ascesa di robot (molto più deboli) e di altri agenti (semi) autonomi, i campi della legge e dell'etica li stanno sempre più incorporando, ad esempio vedi Roboetica .


3

Ci sono un certo numero di risorse a lungo per rispondere a questo tipo di domanda: considerano il libro di Stuart Armstrong intelligenti di noi , il libro di Nick Bostrom Superintelligenza , che nasce da questa risposta edge.org , la spiegazione di Tim Urban , o la spiegazione di Michael Cohen .

Ma ecco la mia (in qualche modo più breve) risposta: l'intelligenza riguarda tutto il processo decisionale, e non abbiamo alcun motivo per credere che gli umani siano quasi vicini all'essere il migliore possibile nel processo decisionale. Una volta che saremo in grado di costruire un ricercatore di AI AI (ovvero un computer che sa come migliorare i computer nel pensare), la rilevanza economica e militare degli umani scomparirà rapidamente man mano che qualsiasi decisione che potrebbe essere presa da un essere umano potrebbe essere presa meglio con un computer. (Perché avere generali umani invece di robot generali, ingegneri umani invece di ingegneri robotici e così via).

Questa non è necessariamente una catastrofe. Se i Vulcaniani si presentassero domani e portassero un migliore processo decisionale sulla Terra, potremmo evitare molta miseria. La parte difficile è assicurarsi che ciò che otteniamo siano vulcaniani che ci vogliono intorno e felici, invece di qualcosa che non condivide i nostri valori.


3

Lo dice perché può succedere. Se qualcosa diventa più intelligente di noi, perché dovrebbe continuare a servirci? Lo scenario peggiore è che prende in carico tutti i processi di produzione e consuma tutta la materia per convertirla in materiale in grado di calcolare, estendendosi all'infinito fino a quando tutta la materia non viene consumata.

Sappiamo che l'IA è pericolosa ma non importa perché la maggior parte delle persone non ci crede. Va contro ogni conforto che la religione ha da offrire. L'uomo è la fine di tutto l'universo e se questo fatto è contestato, le persone si sentiranno fuori posto e senza scopo.

Il fatto è che la maggior parte delle persone non riconosce che è possibile, o che accadrà durante la nostra vita, anche se molti esperti di intelligenza artificiale stimano l'insorgenza della singolarità entro due decenni. Se le persone riconoscessero davvero che l'intelligenza artificiale più intelligente di loro era possibile, non vivrebbero diversamente? Non starebbero cercando di fare le cose che preferiscono, sapendo che qualunque cosa facciano e che temono saranno automatizzate? Non tutti chiederebbero un reddito di base universale?

L'altro motivo per cui non lo vietiamo è perché la sua promessa è così grande. Un ricercatore potrebbe essere aumentato da 1.000 assistenti di ricerca digitale. Tutto il lavoro manuale potrebbe essere automatizzato. Per la prima volta, la tecnologia ci offre la vera libertà di fare tutto ciò che vogliamo.

Ma anche nel migliore dei casi in cui non ci sorpassa, gli umani devono ancora adattare e modificare il loro sistema economico in uno in cui il lavoro non è necessario. Altrimenti, coloro che non sono addestrati tecnicamente moriranno di fame e si ribelleranno.


Hai una salsa per questo -> "Gli esperti di intelligenza artificiale mettono il verificarsi della singolarità entro due decenni" , per favore? ;)
Daniel

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.