C'è qualche argomento scientifico / matematico che impedisce al deep learning di produrre mai una forte intelligenza artificiale?


12

Ho letto Il libro del perché di Judea Pearl , in cui menziona che il deep learning è solo una glorificata tecnologia di adattamento alla curva e non sarà in grado di produrre un'intelligenza umana.

Dal suo libro c'è questo diagramma che illustra i tre livelli di abilità cognitive:

Tre livelli di abilità cognitive

L'idea è che l '"intelligenza" prodotta dall'attuale tecnologia di apprendimento profondo è solo a livello di associazione. Quindi l'intelligenza artificiale non è affatto vicina al livello di porre domande come "come posso far accadere Y" (intervento) e "E se avessi agito diversamente, X si verificherebbe comunque?" (controfattuali) ed è altamente improbabile che le tecniche di adattamento alla curva possano mai avvicinarci a un livello superiore di capacità cognitiva.

Ho trovato la sua argomentazione persuasiva a livello intuitivo, ma non sono in grado di trovare leggi fisiche o matematiche che possano sostenere o gettare dubbi su questa argomentazione.

Quindi, c'è qualche argomento scientifico / fisico / chimico / biologico / matematico che impedisce all'apprendimento profondo di produrre mai una forte intelligenza artificiale (intelligenza simile all'uomo)?


Poche ore fa, abbiamo avuto una sorta di Quetion che parla di neuroscienze e intelligenza artificiale, quindi penso che questa domanda sia adatta alle applicazioni di dati, che è oltre all'apprendimento automatico.
quintumnia,

1
Uno dei problemi affrontati nel rispondere a questa domanda è che "Deep Learning" è un tipo di marchio, in cui le cose fatte con reti neurali che vanno oltre l'adattamento della curva statistica - ad esempio RNN per le sequenze di apprendimento e "apprendimento di rinforzo profondo" - possono anche essere considerato parte di esso dagli aderenti. Se permetti che il termine si evolva in questo modo, è molto difficile inchiodare qualsiasi argomento sulle sue capacità.
Neil Slater,

teorema di incompletezza di
godel

2
@thecomplexitytheorist: l'incompletezza di Godel, l'entscheidungsproblem e simili, tutti si applicano anche alla mente umana. In conclusione, se fossero una ragione per non raggiungere l'IA, allora nessuno degli umani è intelligente. Modus tollens, Godels non è un problema nel cammino verso AGI
pasaba por aqui,

Chi può dire che anche "Fare" e "Immaginare" non stanno semplicemente "adattandosi alle curve" nel cervello?
Dunk,

Risposte:


3

Il commento di Judea Pearl del 2018 su ACM.org, nel suo Costruire macchine veramente intelligenti, insegnare loro causa ed effetto è una verità penetrante.

Tutti i risultati impressionanti dell'apprendimento profondo ammontano al semplice adattamento alla curva.

Rn

  1. Le reti artificiali non possono eseguire la logica.
  2. Le reti artificiali sono il miglior approccio all'IA.

In che modo la razionalità può essere esclusa dall'elenco delle importanti caratteristiche umane dell'intelligenza, che cosa significherebbero queste due asserzioni prese insieme?

Il cervello umano è una rete di sofisticati installatori di curve? La famosa citazione di Marvin Minsky, "Il cervello sembra essere una macchina da carne", è stata offerta senza una prova, e da allora non è stata offerta né una prova della sua banalizzazione del cervello umano né una prova che il cervello è al di fuori della portata della calcolabilità di Turing .

Quando leggi queste parole, le tue reti neurali stanno eseguendo la seguente sequenza di curve?

  • Bordi di coni retinici e coni retinici
  • Linee dai bordi
  • Forme da linee
  • Lettere da forme
  • Elementi linguistici da gruppi di lettere
  • Strutture linguistiche da elementi
  • Comprensione dalle strutture linguistiche

Il caso è forte per l'affermazione che i primi cinque sono un meccanismo di convergenza su un modello e che tutta la struttura di apprendimento automatico è solo un metodo per adattare i dati al modello.

Queste ultime due voci di proiettile sono dove il paradigma si rompe e dove molti ricercatori e autori di intelligenza artificiale hanno correttamente affermato che l'apprendimento automatico ha limiti significativi se basato esclusivamente su percetroni multistrato e kernel di convoluzione. Inoltre, l'ultimo oggetto proiettile è notevolmente semplificato nel suo stato attuale, probabilmente per ordini di grandezza. Anche se Minsky ha ragione sul fatto che un computer può eseguire ciò che il cervello fa, il processo di lettura e comprensione di questo paragrafo potrebbe facilmente avere un migliaio di diversi tipi di componenti di processo unici in schemi di flusso di lavoro interno con un parallelismo massiccio. La tecnologia di imaging indica questa probabilità. Abbiamo computer che modellano solo i livelli periferici più semplici.

C'è qualche argomento scientifico / matematico che impedisce al deep learning di produrre mai una forte intelligenza artificiale? - No. Ma non esiste nemmeno un argomento del genere che lo garantisca.

Altre domande qui indagano se questi sofisticati installatori di curve possono eseguire elementi di cognizione o ragionamento.

Il totem di tre nell'immagine della domanda, vedere, fare e immaginare, non è particolarmente completo, accurato o perspicace.

  • Esistono almeno cinque paradigmi sensoriali nell'uomo, non uno
  • Fare miliardi di anni di sensi umani preceduti - i batteri lo fanno
  • L'immaginazione non è un processo significativamente superiore rispetto alla riproduzione degli scenari da modelli di esperienze passate con un metodo per applicare funzioni impostate per combinarle e iniettare mutazioni casuali
  • La creatività potrebbe essere solo immaginando nel precedente oggetto proiettile seguito dall'eliminazione dei risultati dell'immaginazione inutili con alcuni criteri di qualità orientati al mercato, lasciando gli impressionanti prodotti creativi che vendono

Le forme superiori sono apprezzamento, senso di realtà al di là dell'ambito della misurazione scientifica, legittimo dubbio, amore, sacrificio per il bene degli altri o dell'umanità.

Molti riconoscono che lo stato attuale della tecnologia AI non è affatto vicino all'approvvigionamento di un sistema in grado di rispondere in modo affidabile, "Come posso fare accadere Y?" o "Se ho agito diversamente, X si verificherà ancora?"

Non esiste alcuna prova matematica che una combinazione di elementi di adattamento a piccole curve possa o non possa raggiungere la capacità di rispondere a tali domande, come può fare un tipico essere umano, principalmente perché non c'è una comprensione sufficiente di cosa sia l'intelligenza o come definirla in termini matematici.

È anche possibile che l'intelligenza umana non esista affatto, che i riferimenti ad essa si basino sulla convinzione religiosa che siamo più alti come specie rispetto ad altre specie. Che possiamo popolare, consumare e sterminare non è in realtà una concezione molto intelligente dell'intelligenza.

L'affermazione secondo cui l'intelligenza umana è un adattamento che ci differenzia dagli altri mammiferi è in conflitto con il fatto che ci adattiamo bene. Non siamo stati testati. Arriva il prossimo killer meteorico globale con un'onda d'urto della grandezza di quella della meteora del cratere Chicxulub, seguita da alcuni e mille anni di inverno solare e vedremo se è la nostra esistenza di 160.000 anni o l'esistenza di 4.000.000.000 di batteri che si rivela più sostenibile. Nella linea temporale della vita, l'intelligenza umana deve ancora dimostrarsi significativa come tratto adattativo.

Ciò che è chiaro sullo sviluppo dell'IA è che altri tipi di sistemi stanno giocando un ruolo insieme a studenti profondi basati sul concetto di percettrone multistrato e sui kernel di convoluzione che sono strettamente adattatori di superficie.

Componenti Q-learning, componenti basati sull'attenzione e componenti di memoria a breve termine sono anch'essi strettamente adattatori di superficie, ma solo estendendo considerevolmente la definizione di adattamento superficiale. Hanno proprietà e stato adattivi in ​​tempo reale, quindi possono essere Turing completi.

Anche i contenitori di logica fuzzy, i sistemi basati su regole, gli algoritmi con proprietà markoviane e molti altri tipi di componenti svolgono il loro ruolo e non sono assolutamente adattatori di superficie.

In sintesi, ci sono punti che hanno basi in più della plausibilità o di una piacevole qualità intuitiva, tuttavia, molti di questi autori non forniscono un quadro matematico con definizioni, applicazioni, lemmi, teoremi, prove o persino esperimenti di pensiero che possono essere esaminato in modo formale.


1

È un paradosso, ma una macchina per l'apprendimento profondo (definita come variante NeuralNet) non è in grado di apprendere nulla. È un'architettura hardware / software flessibile e configurabile che può essere parametrizzata per risolvere molti problemi. Ma i parametri ottimali per risolvere un problema sono ottenuti da un sistema esterno, vale a dire l'algoritmo di back-propagation.

Il sottosistema di retro-propagazione utilizza paradigmi di programmazione convenzionali, non è una rete neurale. Questo fatto è in assoluta opposizione alla mente umana, dove l'apprendimento e l'uso della conoscenza sono fatti dallo stesso sistema (la mente).

Se tutte le cose veramente interessanti vengono fatte al di fuori della NN, è difficile affermare che una NN (in qualsiasi variante) può svilupparsi in una AGI.

È anche possibile trovare alcune differenze. Le reti neurali sono fortemente numeriche nell'interfaccia e negli interni. Da questo punto di vista, sono un'evoluzione delle macchine vettoriali di supporto.

Troppe differenze e restrizioni per aspettarsi un AGI.

Nota: sono fortemente in disaccordo nel sorteggio incluso nella domanda originale. "Vedere", "fare", "imaging" sono livelli assolutamente sbagliati. Ignora dai concetti software di base e comuni come "astrazione" o "stato del programma" (mente, in parole di Turing); quelli di intelligenza artificiale applicati come "prevedere"; e AGI come "libero arbitrio", "obiettivi e sentimenti", ...


4
Penso che rimuovere la retro-propagazione (o qualsiasi parte del framework formativo) dalla considerazione, e affermare che la parte rimanente sia la parte "Deep Learning" sia artificiale, e in qualche modo schivare la domanda. Penso che sia ragionevole presumere che OP significhi Deep Learning come viene praticato, compresi i processi di formazione disponibili.
Neil Slater,

1
@NeilSlater: Se diciamo che un DL è una specie di NeuralNet (al fine di osservare la somiglianza con la mente umana e, di conseguenza, il suo possibile potere di raggiungere un AGI), stiamo escludendo la parte di apprendimento, che non è un NN . Se includiamo il sottosistema di apprendimento nella definizione di DL, allora non è un NN, è solo una programmazione convenzionale, con la potenza di qualsiasi programma convenzionale, e ha le stesse possibilità di raggiungere AGI rispetto a qualsiasi altro sistema di programma o paradigma.
pasaba por aqui,

Il cervello umano impara ricevendo ed elaborando esclusivamente input da "sistemi" esterni. I parametri ottimali per risolvere i problemi sono ottenuti tramite tentativi ed errori, applicando regole ed elaborando input da sistemi esterni. L'allenamento inizia mentre il bambino è ancora nell'utero e continua 24/7 in seguito. Lo stato attuale dell'IA non è quasi certamente paragonabile all'emulazione del cervello umano; ma affermare che l'IA non può imparare (o non sta già imparando in modo simile al cervello umano) presuppone la conoscenza di come il cervello umano "impara" e funzioni che la scienza non conosce ancora.
Dunk,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.