Quale tipo di ambiente simulato è abbastanza complesso da sviluppare un'intelligenza artificiale generale?


11

Immagina di provare a creare un ambiente virtuale simulato abbastanza complicato da creare un "AI generale" (che io definisco un AI autocosciente) ma che sia il più semplice possibile. Come sarebbe questo ambiente minimale?

cioè un ambiente che era solo una partita a scacchi sarebbe troppo semplice. Un programma di scacchi non può essere un AI generale.

Un ambiente con più agenti che giocano a scacchi e si comunicano i loro risultati. Ciò costituirebbe un'IA generale? (Se puoi dire che un grande maestro di scacchi che pensa agli scacchi tutto il giorno ha "AI generale"? Durante il suo tempo a pensare agli scacchi è diverso da un computer di scacchi?).

Che dire di un mondo sim-sim 3D. Sembra troppo complicato. Dopo tutto, perché non può esistere un'IA generale in un mondo 2D.

Quale sarebbe un esempio di un ambiente semplice ma non troppo semplice in modo tale che l'IA (s) possa avere autocoscienza?


Ho modificato la mia risposta per rispondere in modo più completo alla gamma di domande che poni.
DukeZhou

Indovina la domanda di negazione se l'ambiente crea l'IA a meno che alla fine Dio esista senza ambiente o creatori successivi in ​​modo simile.
Bobs,

"AI autocosciente" non è più descrittivo di "AI generale". Cosa significa "autocosciente"?
Dunk,

Risposte:


5

Penso che questa sia una delle migliori domande relative all'AGI che ho visto in questo forum.

Salterò tutte le tematiche su "cos'è un'AGI", "gioco di simulazione", ... Questi argomenti sono stati discussi nel corso di decenni e al giorno d'oggi sono, a mio avviso, un vicolo cieco.

Pertanto, posso solo rispondere con la mia esperienza personale:

È un teorema di base nell'informatica che qualsiasi numero di dimensioni, compresa quella temporale, in uno spazio di dimensioni finite, può essere ridotto a 1D.

Tuttavia, in esempi pratici, la rappresentazione 1D diventa difficile da analizzare e visualizzare. È un lavoro più pratico con i grafici, che può essere visto come un intermedio tra 1D e 2D. I grafici consentono la rappresentazione di tutti i fatti e le relazioni necessari.

Ad esempio, se proviamo a sviluppare un AGI in grado di lavorare nell'area della matematica, qualsiasi espressione (che gli umani scriviamo in una rappresentazione 2D con razionali, pedici, integrali, ...) può essere rappresentata come 1D (come espressione scritto in una fonte di programma) ma questa 1D deve essere analizzata per raggiungere il grafico che può essere analizzato o eseguito. Pertanto, il grafico che risulta dopo l'analisi dell'espressione è la rappresentazione più pratica.

Un altro esempio, se vogliamo un agente che viaggia attraverso un mondo 3D, questo mondo può essere visto come uno spazio vuoto con oggetti che hanno alcune proprietà. Ancora una volta, dopo la fase iniziale dell'analisi della scena e del riconoscimento degli oggetti (l'equivalente del parser nell'esempio precedente), raggiungiamo un grafico.

Pertanto, per lavorare davvero nell'area dell'AGI, suggerisco di saltare i problemi dell'analisi della scena, del riconoscimento degli oggetti, del riconoscimento vocale (AI stretto) e di lavorare direttamente sui grafici rappresentativi.


1
È interessante che parli di grafici. Perché il mio istinto mi diceva che una sorta di entità che naviga nei nodi di un grafico potrebbe essere abbastanza complessa. Ma temo che un grafico finito con cose finite sarebbe piuttosto limitato. Ma in un altro modo, le nostre stesse vite sono piuttosto limitate quando ci pensate: mangiare, lavorare, dormire, ripetere. Tuttavia, se le entità dovessero competere (o collaborare) con altre entità, si potrebbe verificare un comportamento più complesso con loro che provano a indovinarsi a vicenda.
zooby

3

Penso che la cosa più importante sia che il tempo debba essere simulato in qualche modo. Pensa al chatbot consapevole. Quindi per essere "autocosciente" l'ambiente potrebbe essere un dato che viene immesso nel tempo e che può essere distinto come "auto" e "altro". Con ciò suppongo che intendo "sé" è la parte che influenza direttamente e "altro" è la parte che è influenzata indirettamente o per niente. A parte questo, probabilmente può vivere in ambienti piuttosto astratti. Il motivo per cui il tempo è così importante è senza di esso l'algoritmo cognitivo sta solo risolvendo un problema di matematica.


1
Nella teoria dei computer, il tempo è ridotto alla sequenza degli eventi. Pertanto, un evento 1D (cioè una stringa) che si evolve nel tempo può essere visto come un evento 2D (array di stringhe) o una sequenza 1D (sequenza di stringhe).
pasaba por aqui,

1
Non sono d'accordo con l'idea che il tempo nel mondo reale (o probabilmente per uno artificiale sufficientemente interessante) possa essere adeguatamente liquidato come "solo un'altra dimensione". È necessaria almeno una dimensione temporale per supportare qualsiasi rappresentazione di entropia o cambiamento. E direi che qualsiasi rappresentazione adeguata dei sistemi dinamici richiede un'adeguata distinzione di una dimensione temporale dalla posizione. Anche il tuo suggerimento rappresentativo conferisce all'ordine della sequenza un posto speciale.
42-

1
@ 42- Proprio così, nei miei sforzi per definire formalmente la struttura topologica del Sudoku e dei quadrati latini come funzioni di matrice probabilistica usando la teoria degli insiemi, ho colpito un muro fino a quando non ho iniziato a guardare l'evoluzione hamiltoniana e ho realizzato t (time, or, "giri" nella nuova concezione teorica di gioco di array ortogonali) era l'elemento mancante!
DukeZhou

Pensando ora ai sistemi dinamici nella relatività generale. Forse hai bisogno di una metrica "gravità" per calcolare un potenziale valore locale? Alcune configurazioni sarebbero "buchi neri"
42-12

2

L'IA generale può assolutamente esistere in un mondo 2D, solo che un'IA generalizzata (definita qui come "forza costante attraverso una serie di problemi") in questo contesto sarebbe ancora abbastanza distinta da un'intelligenza generale artificiale , definita come "un algoritmo che può svolgere qualsiasi compito intellettuale che un essere umano possa ".

Anche lì, la definizione di AGI è sfocata, perché "quale umano?" (L'intelligenza umana è uno spettro, in cui gli individui possiedono diversi gradi di capacità di problem solving in contesti diversi.)


Coscienza artificiale : purtroppo l' autocoscienza / coscienza è un problema fortemente metafisico, distinto dalla capacità di risolvere i problemi (intelligenza).

Sicuramente vuoi guardare una " stanza cinese " e confutazioni.


Probabilmente vale la pena guardare al principio olografico : "un concetto in fisica in base al quale uno spazio è considerato come un ologramma di n-1 dimensioni". Certamente modelli e giochi possono essere strutturati in questo modo.

Un altro posto da esplorare sono le teorie sull'emergenza della superintelligenza nell'infinito gioco della vita di Conway . (In breve, la mia comprensione è che una volta che i ricercatori hanno capito come generare qualsiasi numero all'interno degli automi cellulari, la possibilità di una sensibilità emergente data una tavola da gioco di dimensioni sufficienti è almeno teoricamente sana.)


2

Delle risposte finora, quella di @DukeZhou è stata la più provocatoria. Ad esempio, il riferimento alla critica della Sala cinese fa apparire la tesi di Searle secondo cui una qualche forma di intenzionalità potrebbe aver bisogno di supporto nell'ambiente artificiale. Ciò potrebbe implicare la necessità di un sistema di valori o di un sistema di piacere del dolore, vale a dire qualcosa in cui si possono "sperimentare" o cercare attivamente le conseguenze positive e evitare le conseguenze negative. Oppure potrebbe essere necessario riconoscere un potenziale di estinzione individuale (morte o cessazione). La possibilità della "morte dell'ego"potrebbe essere necessario avere un valore negativo elevato. Ciò potrebbe implicare che un mondo artificiale dovrebbe includere "altre menti" o altri agenti, che l'agente intelligente emergente o in fase di apprendimento potrebbe osservare (in un certo senso) e "riflettere", ovvero riconoscere un'intelligenza come la sua. In questo senso il sillogismo cartesiano "Penso quindi sono" viene trasmutato in: io (o meglio io come AI) vedo la prova di altri che pensano, e "per fortuna, anche io posso". Quegli "altri" potrebbero essere o altri sistemi di apprendimento (AGI) o alcuni contatti con input discreti da parte di esseri umani mediati dall'ambiente artificiale. Discussione di Wikipedia sul "test di Turing inverso"

La menzione della dimensionalità dovrebbe provocare una discussione su quale sarebbe la profondità richiesta di rappresentazione di una "fisica" del mondo esterno all'intelligenza artificiale. Una rappresentazione del tempo e dello spazio sembrerebbe necessaria, cioè una sottostruttura dimensionale per il progresso verso il raggiungimento degli obiettivi. Il Blocks World rappresentava un primo problema con i giocattoli, la cui soluzione provocò l'ottimismo negli anni '60 e '70 del secolo scorso che si stavano facendo notevoli progressi. Non sono a conoscenza di alcuno sforzo per programmare alcun dolore o piacere nel programma SHRDLU di quell'epoca (nessun blocco di cadute sulle dita del programma), ma tutte le rappresentazioni di fantascienza interessanti dell'IA hanno qualche riconoscimento delle conseguenze avverse "fisiche" nel mondo reale".

Modifica: aggiungerò la necessità di "entità con caratteristiche" in questo ambiente che potrebbero essere "percepite" (da uno qualsiasi degli "altri" che interagiscono con l'AGI) come input di dati per gli sforzi di induzione, identificazione e deduzione sulle relazioni. Questo crea una base per una "esperienza" condivisa.


Benvenuto in AI e grazie per il tuo contributo! (Il link "ego-death" è interrotto, ma non ero sicuro che tu avessi intenzione di collegarti alla domanda o alla risposta specifica, quindi ritardando la correzione in attesa di chiarimenti.) Collegamenti eccellenti, a proposito! Posso chiedere, il tuo moniker è un riferimento alla risposta proposta alla domanda "Quante strade deve percorrere un uomo?" :)
DukeZhou

Non proprio. Su Internet nessuno sa se sei un'intelligenza artificiale generale.
42-

2

Sebbene una buona risposta di @pasaba por aqui, concordo con @zooby che un grafico potrebbe essere troppo semplicistico. Se gli umani si trovassero in un ambiente in cui le opzioni fossero annegate o avessero fatto 5000 passi non correlati per costruire una barca, non avremmo mai attraversato alcun mare. Penso che qualsiasi grafico, se progettato a mano, non sarebbe abbastanza complesso da chiamare l'agente come AI generale. Il mondo avrebbe bisogno di stati intermedi sufficienti per non essere più descritto come un grafico, ma almeno uno spazio multidimensionale.

Penso che ci siano 2 punti che dovresti considerare. Cosa è "semplice" e quando lo riconosceresti come "AI generale". Non trovo soddisfacente l'IA autocosciente, poiché non possiamo misurare nulla chiamato consapevolezza; possiamo solo vedere il suo stato e la sua interazione con l'ambiente.

Per 1. Direi che il mondo in cui viviamo è in realtà abbastanza semplice. Ci sono 4 forze della natura, alcune leggi sulla conservazione e un mucchio di tipi di particelle che spiegano la maggior parte di tutto. È solo che ci sono molte di queste particelle e questo ha portato a un mondo piuttosto complesso. Naturalmente, questo è costoso da simulare, ma potremmo prendere alcune scorciatoie. Le persone 200 anni fa non avrebbero avuto bisogno di tutta la meccanica quantistica per spiegare il mondo. Se sostituissimo protoni, neutroni e la forza forte con gli atomi nella tavola periodica, staremmo per lo più bene. Il problema è che abbiamo sostituito altre 3 leggi generali con 100 casi specifici. Perché l'ambiente simulato sia abbastanza complesso, penso che questa tendenza debba reggere.

Il che mi porta a 2. Penso che saremmo davvero soddisfatti con l'agente che esprimeva l'IA generale quando poteva interagire intenzionalmente con l'ambiente in un modo che ci avrebbe sconcertato, beneficiando chiaramente di esso (quindi non accidentalmente). Ora potrebbe essere abbastanza difficile o richiedere molto tempo, quindi una condizione più rilassata sarebbe quella di costruire strumenti che ci aspetteremmo che costruiscano, mostrando così la padronanza del proprio ambiente. Ad esempio, prove di barche sono state trovate da qualche parte tra 100k e 900k anni fa, che è all'incirca la stessa scala temporale in cui si svilupparono i primi umani. Tuttavia, anche se ci considereremmo intelligenti, non sono sicuro che considereremmo un agente di fabbricazione di barche con un'intelligenza generale in quanto sembra un'invenzione abbastanza semplice. Ma penso che saremmo soddisfatti dopo alcune di queste invenzioni.

Quindi penso che avremmo bisogno di un Sim come il mondo, che in realtà è molto più complicato del gioco. Con migliaia di tipi di oggetti, molte istanze di ogni oggetto e sufficienti gradi di libertà per interagire con tutto. Penso anche che abbiamo bisogno di qualcosa che sembri familiare per riconoscere qualsiasi agente come intelligente. Quindi un mondo 3D, complicato, simile a quello di Minecraft sarebbe il mondo più semplice in cui riconosceremmo l'emergere dell'intelligenza generale.


0

L '"intelligenza generale artificiale" è qualcosa di diverso da un agente che agisce in modo intelligente in un ambiente. Perché secondo la letteratura tali agenti sono chiamati "AI stretti". Un sistema AGI è l'ambiente. Ciò significa che l'ultima sfida di Micromouse è un sistema AGI che ha lo scopo di sviluppare sistemi di intelligenza artificiale stretta.

Lo sviluppo di un'AGI equivale allo sviluppo di una competizione di robotica. È formalizzato in un libro di regole e funge da ambiente per apprendere, programmare software e discutere i risultati. In ogni caso, un sistema AGI è una competizione sociale, il che significa che è interessante per le squadre partecipare alla competizione. AGI non risponde a come realizzare l'intelligenza, è un test per misurarla. I cosiddetti cervelli umani, l'architettura cognitiva e i risolutori di problemi generali non sono stati sviluppati come un'intelligenza artificiale stretta per agire in modo intelligente, ma sono stati sviluppati come un test di turing per una macchina che è intelligente.

Come possiamo misurare con un programma per computer se un altro programma per computer è intelligente? Una possibilità è la teoria della simulazione umana. Ciò significa che stiamo testando se il programma per computer si comporta come un essere umano e il test di turing ha l'obbligo, di testare la memoria a breve termine, la memoria a lungo termine e la capacità di apprendere nuove cose. Nella sua forma più semplice, il test di turing può essere eseguito con un semplice modulo che deve essere compilato per essere un essere umano, ma è anche possibile estrarre l'umano dal ciclo e utilizzare un computer per testare l'intelligenza di un altro computer . Questo è lo scopo, SOAR, OpenCog e AIXI sono stati sviluppati.


È difficile stabilire la relazione tra questa risposta e la domanda originale.
pasaba por aqui,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.