Tutto ciò che riguarda le reti di Deep Learning (DL) e deep (er) sembra "successo", almeno progredendo molto velocemente e coltivando la convinzione che AGI sia a portata di mano. Questa è l'immaginazione popolare. DL è uno strumento eccezionale per affrontare tanti problemi, inclusa la creazione di AGI. Non è abbastanza, però. Uno strumento è un ingrediente necessario, ma spesso insufficiente.
Personaggi di spicco nel settore stanno cercando altrove per fare progressi. Questo rapporto / rivendicazione raccoglie collegamenti a dichiarazioni di Yoshua Bengio , Yann LeCun e Geoff Hinton . Il rapporto spiega inoltre:
Le principali debolezze di DL (come le vedo io) sono: affidamento ai neuroni modello più semplici possibili ("cartoonish" come li chiama LeCun); uso di idee tratte dalla meccanica statistica e dalle statistiche del XIX secolo, che sono alla base delle funzioni energetiche e dei metodi di verosimiglianza; e la combinazione di questi in tecniche come il backprop e la discesa graduale stocastica, portando a un regime di applicazione molto limitato (apprendimento offline, per lo più batch, supervisionato), che richiede professionisti di grande talento (alias "Stochastic Graduate Descent"), grandi quantità di costose dati di allenamento etichettati e potenza computazionale. Benché ottimo per le grandi aziende che possono attirare o acquistare i talenti e distribuire risorse illimitate per raccogliere dati e sgretolarli, DL non è semplicemente né accessibile né utile per la maggior parte di noi.
Sebbene interessante e pertinente, questo tipo di spiegazione non affronta davvero l'essenza del problema: cosa manca?
La domanda sembra ampia, ma potrebbe essere per mancanza di una risposta semplice. C'è un modo per individuare ciò che manca a DL per un AGI?