AIXI è davvero un grosso problema nella ricerca di intelligenza generale artificiale?
Sì, è un grande contributo teorico all'AGI. AFAIK, è il tentativo più serio di costruire un quadro teorico o una base per AGI. Opere simili sono le macchine Gödel di Schmidhuber e l' architettura SOAR .
AIXI è un framework astratto e non antropomorfo per AGI che si basa sul campo dell'apprendimento del rinforzo, senza alcune assunzioni solite (ad es. Senza Markov e ipotesi di ergodicità , che garantisce che l'agente possa facilmente recuperare da qualsiasi errore commesso il passato). Anche se alcune proprietà di ottimalità di AIXI sono state dimostrate, è (Turing) incomparabile (non può essere eseguito su un computer), quindi è di utilità pratica molto limitata. Tuttavia, nel libro di Hutter's Intelligenza artificiale universale: decisioni sequenziali basate sulla probabilità algoritmica(2005), dove diverse proprietà di AIXI sono rigorosamente provate, viene anche descritta una versione calcolabile ma intrattabile di AIXI, AIXItl. Inoltre, nel documento A Monte Carlo AIXI Approximation (2009), di Joel Veness et al., Viene introdotta un'approssimazione calcolabile e trattabile di AIXI. Quindi, ci sono stati alcuni tentativi di rendere AIXI praticamente utile.
L'articolo Che cos'è AIXI? - Un'introduzione al General Reinforcement Learning (2015), di Jan Leike, che è uno dei contributori allo sviluppo e all'evoluzione del framework AIXI, offre un'introduzione delicata all'agente AIXI. Vedi anche L'architettura AIXI alla Stanford Encyclopedia of Philosophy per un'introduzione forse più delicata ad AIXI.
Può essere pensato come un concetto centrale per il campo?
Sì, l'introduzione di AIXI e la ricerca correlata hanno contribuito all'evoluzione del campo AGI. Ci sono state diverse discussioni e articoli pubblicati, dopo la sua introduzione nel 2000 da parte di Hutter nel documento Una teoria dell'intelligenza artificiale universale basata sulla complessità algoritmica .
Vedi ad esempio la sezione 7, "Esempi di superintelligenze", dell'articolo Artificial General Intelligence e Human Mental Model (2012), di Roman V. Yampolskiy e Joshua Fox. Vedi anche https://wiki.lesswrong.com/wiki/AIXI che contiene una discussione su alcuni problemi relativi ad AIXI, che devono essere risolti o eventualmente evitati nei futuri quadri AGI. Inoltre, vedi anche questo e questo articolo.
Se è così, perché non abbiamo più pubblicazioni su questo argomento (o forse abbiamo e non ne sono consapevole)?
Sono state pubblicate diverse pubblicazioni, principalmente di Marcus Hutter e ricercatori associati. Puoi vedere le pubblicazioni di Marcus Hutter sulla seguente pagina web: http://www.hutter1.net/official/publ.htm .
Se sei interessato a contribuire a questa teoria, ci sono diversi modi. Se sei matematicamente ben istruito, puoi provare a risolvere alcuni dei problemi descritti qui (che sono anche menzionati nel libro di Hutter del 2005 menzionato sopra). Inoltre, puoi anche contribuire a nuove approssimazioni o miglioramenti delle approssimazioni esistenti dell'agente AIXI. Infine, puoi costruire il tuo nuovo framework AGI evitando i problemi associati al framework AIXI. Vedi anche i progetti promossi da Hutter . Potrebbe essere una buona idea tenere conto, ad esempio, delle macchine Gödel e del lavoro correlato, prima di tentare di introdurre un nuovo framework (a condizione che tu ne sia capace).
Penso che questa teoria non abbia attratto più persone probabilmente perché è altamente tecnica e matematica (quindi non è molto facile da capire se non si ha un background molto solido nell'apprendimento di rinforzo, teoria della probabilità, ecc.). Penso anche che la maggior parte delle persone (nella comunità AI) non siano interessate alle teorie, ma sono principalmente guidate da risultati pratici e utili.