Qual è il concetto di singolarità tecnologica?


32

Ho sentito l'idea della singolarità tecnologica, che cos'è e come si collega all'intelligenza artificiale? È questo il punto teorico in cui le macchine di Intelligenza Artificiale sono progredite al punto in cui crescono e apprendono da sole oltre ciò che gli umani possono fare e la loro crescita decolla? Come potremmo sapere quando raggiungeremo questo punto?

Risposte:


20

La singolarità tecnologica è un momento teorico nel quale un'intelligenza artificiale artificiale auto-migliorante diventa in grado di comprendere e manipolare concetti al di fuori della portata del cervello umano, cioè il momento in cui può capire le cose che gli umani, secondo il disegno biologico, possono " t.

La confusione sulla singolarità deriva dal fatto che, dalla singolarità in poi, la storia è effettivamente imprevedibile. L'umanità non sarebbe in grado di prevedere eventi futuri o di spiegare eventi attuali, poiché la scienza stessa non è in grado di descrivere eventi innescati dalla macchina. In sostanza, le macchine ci penserebbero allo stesso modo in cui pensiamo alle formiche. Pertanto, non possiamo fare previsioni oltre la singolarità. Inoltre, come conseguenza logica, non saremmo in grado di definire il punto in cui la singolarità può verificarsi, o addirittura riconoscerla quando accade.

Tuttavia, affinché la singolarità abbia luogo, l'AGI deve essere sviluppata, e se ciò sia possibile è un dibattito piuttosto accesoproprio adesso. Inoltre, dovrebbe essere progettato un algoritmo che crea intelligenza sovrumana da bit e byte. Per definizione, un programmatore umano non sarebbe in grado di fare una cosa del genere, poiché il suo cervello dovrebbe essere in grado di comprendere concetti al di là della sua portata. C'è anche l'argomento che un'esplosione di intelligenza (il meccanismo attraverso il quale si formerebbe teoricamente una singolarità tecnologica) sarebbe impossibile a causa della difficoltà della sfida progettuale di rendersi più intelligente, ingrandirsi proporzionalmente alla sua intelligenza, e che la difficoltà del progetto stesso può superare l'intelligenza richiesta per risolvere detta sfida (ultimo punto merito a dio dei lama nei commenti).

Inoltre, ci sono teorie correlate che coinvolgono macchine che prendono il controllo dell'umanità e tutta quella narrativa di fantascienza. Tuttavia, è improbabile che ciò accada, se le leggi di Asimov sono seguite in modo appropriato. Anche se le leggi di Asimov non fossero sufficienti, sarebbe comunque necessaria una serie di vincoli per evitare l'uso improprio di AGI da parte di individui non intenzionati, e le leggi di Asimov sono le più vicine a ciò.


C'è anche l'argomento che un'esplosione di intelligenza (il meccanismo attraverso il quale si formerebbe teoricamente una singolarità tecnologica) sarebbe impossibile a causa della difficoltà della sfida progettuale di rendersi più intelligente diventando più grande proporzionalmente alla sua intelligenza, e che la difficoltà di la sfida di progettazione può superare l'intelligenza richiesta per risolvere detta sfida di progettazione. << potresti voler aggiungere questo alla tua risposta per renderlo più completo / completo.
god of llamas

1
Le leggi della robotica di Asimov non sono prese sul serio, in realtà sono state inventate per mostrare i molti modi in cui potrebbero sbagliare e essere interpretate male dall'intelligenza artificiale (supponendo ovviamente che l'IA non diventi abbastanza intelligente da ignorarle completamente e inventarle intenzioni e obiettivi) e questo era ciò di cui parlavano le storie. Vedere questo video .
god of llamas

@godofllamas: grazie per la tua proposta, ho aggiornato la risposta di conseguenza. Per quanto riguarda le leggi di Asimov, AFAIK, la legge di Zeroth è stata progettata proprio per evitare i molti modi in cui le tre leggi originali sono state (ab) usate nelle storie di Asimov. Ad ogni modo, un'intelligenza artificiale dovrebbe essere definitivamente vincolata in qualche modo, siano esse le leggi di Asimov o qualsiasi altra cosa, per evitare possibili abusi di essa e ulteriori disastri.
3442

Comprendere cose che gli umani non possono non è un requisito della teoria della singolarità nell'intelligenza artificiale. Se le macchine riuscissero a comprendere solo l'1% di ciò che gli umani capiscono ma potrebbero raddoppiare quel livello di comprensione ogni anno, la singolarità si sarebbe verificata. Anche se la macchina non superasse mai qualitativamente il cervello umano, se potesse elaborarsi più velocemente o in modo più affidabile, mostrerebbe comunque superiorità e probabilmente raggiungerebbe il dominio.
FauChristian,

3

Il concetto di "singolarità" è quando le macchine superano in astuzia gli umani. Anche se l'opinione di Stephen Hawking è che questa situazione è inevitabile, ma penso che sarà molto difficile raggiungere quel punto, perché ogni algoritmo AI deve essere programmato dagli umani, quindi sarebbe sempre più limitato del suo creatore.

Probabilmente sapremmo quando quel punto in cui l'umanità perderà il controllo sull'intelligenza artificiale dove l'IA super-intelligente sarebbe in competizione con gli umani e forse si sarebbe verificata la creazione di esseri intelligenti più sofisticati, ma attualmente è più simile alla fantascienza (aka Terminator's Skynet ).

Il rischio potrebbe comportare l'uccisione di persone (come i droni di guerra a volo autonomo che prendono le proprie decisioni), la distruzione di paesi o persino dell'intero pianeta (come l'intelligenza artificiale collegata alle armi nucleari (aka film WarGames ), ma ciò non dimostra che il le macchine sarebbero più intelligenti degli umani.


`ogni algoritmo AI deve essere programmato dagli umani` -> L'idea generale dietro AI è che le macchine possono imparare migliorando la propria programmazione. Teoricamente, ciò potrebbe comportare che le macchine alla fine diventino più intelligenti di noi e siano in grado di creare algoritmi superiori a qualsiasi algoritmo scritto dagli umani, il che a sua volta comporterebbe un'IA ancora migliore.
John Slegers,

"ogni algoritmo AI deve essere programmato dagli umani, quindi sarebbe sempre più limitato del suo creatore" - questo è un argomento interessante. I seguenti argomenti sono contro argomenti -1) non dobbiamo codificare l'intelligenza dell'IA. dobbiamo codificare l'IA per la capacità di osservare, inferire e comprendere. Successivamente, presumibilmente, l'aggiunta di una potenza di elaborazione sufficientemente maggiore e una più veloce renderebbe l'IA in grado di apprendere e afferrare meglio di noi.2) Inoltre, se 1000 umani applicano il loro cervello per costruire un'intelligenza artificiale, l'IA potrebbe avere più intelligenza di 1 umano.
AKM

Gli algoritmi NON devono essere programmati dall'uomo. È possibile e in realtà abbastanza comune trasformare, mutare, ottimizzare, valutare e selezionare algoritmi; e le macchine hanno già superato gli umani in qualche modo e abbastanza frequentemente.
FauChristian,

3

La singolarità, nel contesto dell'IA, è un evento teorico in base al quale viene distribuito un sistema intelligente con i seguenti criteri.

  1. In grado di migliorare la gamma della propria intelligenza o di implementare un altro sistema con tale portata migliorata
  2. Volontà o costretto a farlo
  3. In grado di farlo in assenza di supervisione umana
  4. La versione migliorata sostiene ricorsivamente i criteri da (1) a (3)

Per induzione, la teoria prevede quindi che verrà generata una sequenza di eventi con un potenziale tasso di aumento dell'intelligenza che può superare di gran lunga il potenziale tasso di evoluzione del cervello.

Quanto sia obbligata questa entità che si auto-migliora o popolazione di entità procreate a preservare la vita umana e la libertà è indeterminata. L'idea che un tale obbligo possa far parte di un contratto software irrevocabile è ingenua alla luce della natura delle capacità legate ai criteri da (1) a (4) di cui sopra. Come con altre potenti tecnologie, i rischi sono numerosi e di vasta portata quanto i potenziali benefici.

I rischi per l'umanità non richiedono intelligenza. Esistono altri contesti per l'uso del termine singolarità, ma sono al di fuori dell'ambito di questo forum sull'intelligenza artificiale, ma può valere una breve menzione per chiarezza. Ingegneria genetica, ingegneria nucleare, globalizzazione e fondamento di un'economia internazionale su una fonte di energia finita consumata migliaia di volte più velocemente di quanto sorsero sulla terra - Questi sono altri esempi di tecnologie ad alto rischio e tendenze di massa che comportano rischi e benefici all'umanità.

Tornando all'intelligenza artificiale, il principale avvertimento nella teoria della singolarità è l'incapacità di incorporare la probabilità. Sebbene possa essere possibile sviluppare un'entità conforme ai criteri da (1) a (4) sopra, può essere abbastanza improbabile che il primo evento si verifichi molto tempo dopo che tutte le lingue attuali parlate sulla Terra sono morte.

Dall'altro estremo della distribuzione di probabilità, si potrebbe facilmente sostenere che esiste una probabilità diversa da zero che il primo evento si sia già verificato.

In tal senso, se una presenza più intelligente fosse già presente su Internet, quanto sarebbe probabile che trovasse nel suo interesse quello di rivelarsi agli esseri umani inferiori. Ci presentiamo a una larva di passaggio?


Grazie per la spiegazione. Devo ammettere che non riesco a capire, concettualmente, come sarebbero praticamente queste condizioni, specialmente 1). Presumibilmente, un algoritmo è implementato con un insieme più o meno definito di ingressi e uscite. Dobbiamo supporre che altera quei set per 1) per essere vero? Perché uno sviluppatore umano dovrebbe scegliere di consentire ciò, almeno in modo incontrollato, anche molto prima del livello AGI? E ... è una domanda ingenua? :)
Cpt Reynolds,

0

La "singolarità", vista in senso stretto, si riferisce a un punto in cui la crescita economica è così veloce che non possiamo fare previsioni utili su come sarà il futuro passato.

Viene spesso usato in modo intercambiabile con "esplosione dell'intelligence", che è quando otteniamo la cosiddetta AI forte, che è AI abbastanza intelligente da comprendere e migliorarsi. Sembra ragionevole aspettarsi che l'esplosione dell'intelligence porterebbe immediatamente a una singolarità economica, ma il contrario non è necessariamente vero.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.