Cosa c'è di sbagliato nell'idea che l'IA sarà capace di onniscienza?


10

Nel contesto dell'intelligenza artificiale, la singolarità si riferisce all'avvento di un'intelligenza generale artificiale in grado di auto-miglioramento ricorsivo, che porta alla rapida comparsa della superintelligenza artificiale (ASI), i cui limiti sono sconosciuti, poco dopo il raggiungimento della singolarità tecnologica . Pertanto, queste superintelligenze sarebbero in grado di risolvere problemi che probabilmente non siamo in grado di risolvere.

Secondo un sondaggio riportato in Progressi futuri nell'intelligenza artificiale: un'indagine di opinione di esperti (2014)

La stima mediana degli intervistati prevedeva una possibilità su due che si sviluppasse un'intelligenza artificiale di alto livello intorno al 2040-2050

che non è molto lontano.

Cosa c'è di sbagliato nell'idea che l'IA sarà capace di onniscienza, dato che potrebbe trarne beneficio risolvendo molti problemi?

Risposte:


8

Mi piace molto il tuo modo di vedere, e senza entrare nei dettagli di come una "singolarità" può essere effettuata, che è coperta da numerose altre domande, o come la coscienza e l '"onniscienza" entrano in gioco perché la coscienza e l'onniscienza non sono requisiti , lo farò invece indirizzarti verso due filosofi chiave:

Quindi quando le persone impazziscono, concentrandosi sul mito di " Skynet " in base al quale le macchine si alzano per distruggerci, devo chiedermi se non sono semplicemente intelligenti come Nash o profonde come Dick, il che potrebbe spiegare la loro mancanza di enfasi su quello che può essere chiamato il paradigma " Electric Sheep ".


1
Sono totalmente d'accordo con te. A volte chiedo cosa ci porta a creare nuove tecnologie. Vogliamo poteri assoluti o risolviamo davvero i nostri problemi reali? Ecco perché preferisco vedere attraverso il prisma dell'amore. Alcuni potrebbero considerarlo un cliché, ma è così che credo.
Karl Zillner,

@KarlZillner Continuando verso il fronte mitologico, in Stross ' Accellerando , introduce un concetto di "Economia 2.0 *, definito come un sistema in cui anche gli umani aumentati non possono più competere con algoritmi puri e che sembra essere completamente inutile. proporre due percorsi principali: AI semi-partigiani e cooperativi vs. AI iperpartigiani (che escono come cugini meno intelligenti, sebbene con funzioni di acquisizione di basso livello altamente ottimizzate che consentano loro di sopraffare e cooptare l'infrastruttura del creatore. )
DukeZhou

0

La domanda è buona e nella mente di molte persone. Ci sono alcune idee sbagliate nella linea di pensiero da considerare.

  • La supremazia di esseri intelligenti diversi dagli umani minaccia la civiltà - È logico immaginare quella minaccia? È una conclusione razionale quando l'intelligenza umana è oggi il fenomeno biologico più minaccioso nella biosfera. L'intelligenza degli insetti può essere più sostenibile. Le civiltà di formiche e termiti sono sicuramente più collaborative. Le guerre mondiali e il genocidio sono una delle caratteristiche principali della storia umana.
  • L'intelligenza artificiale diventa più intelligente degli umani - L'intelligenza artificiale è già più intelligente degli umani per alcuni aspetti, motivo per cui usiamo calcolatrici, commutazione automatica dei segnali di comunicazione anziché operatori e smistatori automatici di posta. In altri modi, l'IA deve attraversare le distanze astronomiche per iniziare ad approssimare l'intelligenza umana. Non abbiamo nulla che mostri anche un accenno di essere in grado di simulare o duplicare in futuro le capacità umane di ragionamento, inventiva o compassione.
  • La singolarità è prevista per il 2040 - Ci sono più di una dozzina di ipotesi non realistiche in quelle previsioni. Guarda con occhio critico uno degli argomenti dietro di loro e farai dei buchi che potresti far volare un 757 con gli occhi bendati.
  • Crescita esponenziale delle conoscenze - Vi è una crescita esponenziale delle informazioni, ma la proporzione di tali informazioni che sono legittimamente sottoposte a revisione paritaria diminuisce all'aumentare della disinformazione, delle congetture selvagge e delle notizie false. La mia convinzione è che la quantità di informazioni nel mondo possa essere approssimata da log (n), dove n è la popolazione. Se sono sulla buona strada con quella relazione, il valore informativo dell'individuo medio è log (n) / n, che diminuisce con l'aumentare della popolazione.
  • L'intelligenza artificiale sarà capace di onniscienza: l'onniscienza è più che rispondere a qualsiasi domanda. L'onniscienza richiederebbe che la risposta sia affidabile al 100% e accurata al 100%, il che potrebbe richiedere più silicio di quanto non esista nell'universo. Leggi il caos di Gleick se vuoi capire perché. Si potrebbe anche sostenere che un essere onnisciente non risponderebbe a domande a comando.

Se vuoi un mondo migliore di quello controllato dall'intelligenza umana, allora una direzione da prendere è quella di cercare lo sviluppo di una nuova specie con una concezione più avanzata della civiltà pacifica che può domarci e addomesticare come abbiamo fatto con i cani e gatti.

La via più semplice è solo per tutti noi di morire. La biosfera potrebbe essere stata più civile prima del nostro arrivo e iniziare a uccidere tutto e l'altro. Ma questa non è la mia speranza.

La mia raccomandazione è di studiare NI (non-intelligence) e scoprire come liberare ciò che è stupido dal comportamento umano e dall'interazione geopolitica. Ciò migliorerebbe il mondo molto più che distrarre e sostanzialmente irrilevanti gadget e app di machine learning.


0

Ecco alcuni problemi che mi sono venuti in mente.

1.Smart! = Onnisciente

L'esplosione di auto-miglioramento dell'IA la rende sempre più intelligente. Essere più intelligenti non significa conoscere più fatti. Suppongo che questo sia un argomento piuttosto esigente, ma penso che valga la pena pensarci.

Un medico molto intelligente che non conosce la tua storia potrebbe ancora fare una scelta peggiore di una meno intelligente con dati migliori.

2. È tutto per l'uomo? È per tutti gli umani?

L'ASI che raggiunge un livello superiore non potrebbe essere interessato al nostro benessere.

Un ASI controllato potrebbe ancora funzionare a beneficio dei pochi, se questi pochi decidessero obiettivi sbagliati potremmo tornare indietro.

3 ASI duro

Una mente scientifica non necessariamente piena di simpatia o empatia.

4. Essere intelligenti e non essere intelligenti

Le grandi menti continuano a commettere errori: * nel fissare i propri obiettivi e * nell'eseguire il piano per raggiungerlo.

L'intelletto di Geat non garantisce la mancanza di lungimiranza o la mancanza di punti ciechi.

5. Limiti

Se ci sono limiti di esistenza (limiti di velocità della luce), anche l'IA sarà vincolata da questi. Ciò può significare che ci sono cose che nemmeno l'ASI "capirà". Inoltre, poiché la nostra mente potrebbe avere dei limiti in base alla sua struttura, anche la prossima IA potrebbe avere dei limiti - e anche se migliorasse, potrebbe raggiungere dei limiti a cui non riesce a trovare soluzioni perché è "troppo stupido".

6. Non lo capiremo

La comprensione dell'ASI di alcuni aspetti del mondo potrebbe non essere comunicativa per la maggior parte degli umani. Semplicemente non lo capiremo (anche se siamo in grado di capire tutto, non significa che lo capiremo).

7. Come si usa?

Potremmo distruggerci e l'intelligenza artificiale con la tecnologia che ci aiuta a costruire. Non ha bisogno di essere bombe. Può essere geoingegneria o stupefacenti.

Ciò è particolarmente intenso quando l'ASI è già potente ma non abbastanza forte da prevedere conseguenze negative (o lo ignoreremo comunque).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.