Quello che sappiamo
Secondo una pagina della Banca mondiale , "Oggi ci sono circa 200 milioni di studenti dell'istruzione superiore nel mondo, rispetto agli 89 milioni del 1998". Almeno 1 su 100 ha, come requisito matematico, dovuto sviluppare una prova per un teorema e vivere almeno 40 anni dopo.
Sebbene ci siano almeno 20 milioni di reti neurali in grado di dimostrare un teorema, mancano di esempi che risponderebbero a questa domanda in senso affermativo. Queste reti neurali sono biologiche, non artificiali e hanno per lo più dimostrato teoremi precedentemente dimostrati, non la congettura di Collatz o la congettura di Riemann.
Ciò che alcuni credono
Coloro che credono che i dispositivi di Q-learning profondo e basati sull'attenzione saranno uniti da altri progetti di sistemi di apprendimento fino a quando le facoltà del cervello umano non saranno simulate e forse superate, includeranno probabilmente il teorema che si dimostra come una di quelle capacità umane. Questi probabilmente dichiarerebbero la logica e l'inferenza predicate come solo un'altra complessa funzione cognitiva che sarà raggiunta nei sistemi artificiali.
Coloro che credono che alcune capacità siano permeate nell'uomo e siano capacità riservate, possono dichiarare la logica e l'inferenza predicate riservate solo agli umani.
Stato attuale del progresso
Non ci sono articoli accademici che indicano la capacità di provare anche le prove più semplici usando la logica predicata e l'inferenza. È possibile che un governo o un'impresa privata abbia raggiunto un certo livello di successo nel farlo, ma tale non è stato reso noto.
L'idea che le reti artificiali, se sviluppate in modo apprezzabile, potessero superare i sistemi di produzione, i sistemi di intelligenza artificiale che si basano su produzioni o regole, nelle loro aree di massima efficacia è stata proposta all'inizio dello sviluppo dell'IA. Fu contestato e contestato ora, tuttavia gli argomenti non sono matematici, quindi non vi è alcuna forte indicazione che sia impossibile.
Certamente altri aspetti cognitivi del pensiero umano sono obiettivi importanti della ricerca sull'IA. Dialoghi, istruzione automatizzata, pianificazione, analisi strategica e pilotaggio dei veicoli sono tutti aspetti del pensiero superiore che richiedono più di DQN e che ora gli approcci di rete basati sull'attenzione possono offrire, ma gli sforzi di ricerca in queste aree sono apprezzabili e ben finanziati.
Approccio potenziale
La ricerca delle capacità cognitive logiche dovrebbe iniziare prove già note, molto più semplici delle congetture menzionate nella domanda. Ad esempio, è stato dimostrato che la somma di due numeri interi non negativi deve essere un altro numero intero non negativo. Nel calcolo del predicato, può essere rappresentato come una stringa di caratteri.
∀ a ∈ C, b ∈ C: s = a + b⟹s ∈ C
Dice che aeb essendo membri dell'insieme dei numeri di conteggio, che s, definito come la somma dei due, deve anche essere un membro dell'insieme di numeri di conteggio. La sua dimostrazione può anche essere rappresentata come una sequenza di stringhe di caratteri del calcolo del predicato del primo ordine.
Nessun piccolo progetto di ricerca
Un esempio del genere può sembrare semplice per qualcuno che ha seguito anni di corsi di matematica e ha costruito prove. Non è semplice per un bambino ed è molto difficile far convergere una rete artificiale in una funzione che applica tutte le regole di inferenza logica e incorpora meta-regole per arrivare a una prova di un sistema formale come l'aritmetica intera.
Le reti complete di Turing, come le RNN, avranno sicuramente dei vantaggi rispetto alle MLP (percetroni multistrato). Le reti basate sull'attenzione possono essere un'opzione di ricerca ragionevole. Ce ne sono altri indicati nei riferimenti seguenti.
Per la ricerca sarebbe necessaria una piattaforma informatica parallela, poiché il vettore di input può essere di centinaia di Kbyte. È difficile stimare le dimensioni degli esempi e quanti sarebbero necessari senza coinvolgere un anno o due nel processo di ricerca.
La definizione di contare i numeri, il segno più e il segno di uguale devono prima essere definiti e tali definizioni e un certo numero di assiomi, postulati, lemmi e corollari devono far parte dell'esempio di input nella forma formale come la proposta di essere dimostrato sopra, insieme a quella proposta.
E questo è il lavoro per preparare solo un esempio. Ne occorrerebbero migliaia per formare conoscenze intuitive sulle regole di inferenza in una rete profonda. (Ho scelto la parola INTUITIVO molto deliberatamente per ragioni teoriche che avrebbero richiesto almeno cento pagine per spiegare bene.)
Questo non è un piccolo progetto poiché il set di dati di esempio deve contenere almeno alcune migliaia di casi e ogni caso, sebbene possa condividere qualche teoria, deve essere impostato in modo che la proposta sia perfettamente formata e venga anche presentato il corpus necessario di teoria in perfetta forma all'ingresso per ogni iterazione dell'allenamento.
La mia ipotesi è che occorrerebbe un team di brillanti ricercatori con la comprensione adeguata di reti profonde, convergenza e calcolo del predicato di circa dieci anni per formare una rete per fornire prove valide in risposta a semplici proposte matematiche.
Ma non sarebbe un piccolo risultato
Questo potrebbe sembrare uno sforzo assurdo per alcuni, ma sarebbe la prima volta che qualcuno insegnasse a un computer come essere logici. La natura ha impiegato poco meno dell'età della terra per insegnare l'inferenza logica a un organismo, Socrate.
La gente parte dal presupposto che, poiché un computer è costituito da circuiti digitali che eseguono la logica in base alla progettazione, i computer sono logici. Chiunque si occupi di sviluppo software da decenni con la tendenza a pensare più a fondo dell'hacking per divertimento o denaro lo sa diversamente. Anche dopo un'attenta programmazione, i computer non simulano l'inferenza logica e non possono correggere il proprio comportamento programmato per qualsiasi bug arbitrario. In effetti, la maggior parte dello sviluppo software oggi consiste nella correzione di bug.
Simulare il pensiero logico sarebbe un passo importante verso la simulazione della cognizione e la più ampia gamma di capacità umane.
Riferimenti
Imparare a comporre reti neurali per rispondere alle domande Jacob Andreas, Marcus Rohrbach, Trevor Darrell e Dan Klein UC, Berkeley 2016
https://arxiv.org/pdf/1601.01705.pdf
Apprendimento di più livelli di rappresentazione Geoffrey E. Hinton Dipartimento di Informatica, Università di Toronto 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Neural Turing Machine (slideshow) Autore: Alex Graves, Greg Wayne, Ivo Danihelka Presentato da: Tinghui Wang (Steve)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Neural Turing Machines (paper) Alex Graves, Greg Wayne, Ivo Danihelka
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Apprendimento per rinforzo, Neural Turing Machines Wojciech Zaremba, Ilya Sutskever ICLR conference paper
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buff=buff
2016
Macchina di Turing neurale dinamica con schemi di indirizzamento continuo e discreto Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Un Fuzzy neurale autocostruito online, una rete di inferenza e le sue applicazioni Chia-Feng Juang e Chin-Teng Lin Transazioni IEEE su Fuzzy Systems, v6, n1 1998
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Gated Graph Sequence Neural Networks Yujia Li e Richard Zemel ICLR conference paper 2016
https://arxiv.org/pdf/1511.05493.pdf
Costruire macchine che imparano e pensano come persone Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum e Samuel J. Gershman Behavioral and Brain Sciences 2016
https://arxiv.org/pdf/1604.00289.pdf
Reti neurali profonde pre-addestrate dipendenti dal contesto per il riconoscimento vocale di grandi vocaboli George E. Dahl, Dong Yu, Li Deng e Alex Acero Transazioni IEEE su elaborazione audio, vocale e linguistica 2012
https://s3.amazonaws.com/ academia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf? AWSAccessKeyId = AKIAIWOWYYGZ2Y53UL3A & Valida = 1.534.211,789 mila e firma = 33QcFP0JGFeA% 2FTsqjQZpXYrIGm8% 3D & risposta-Content-disposition = inline% 3B% 20filename% 3DContext-Dependent_Pre-Trained_Deep_Neura.pdf
Incorporamento di entità e relazioni per l'apprendimento e l'inferenza nelle basi di conoscenza Bishan Yang1, Wen-tau Yih2, Xiaodong He2, Jianfeng Gao2 e Li Deng2 ICLR conference paper 2015
https://arxiv.org/pdf/1412.6575.pdf
Un algoritmo di apprendimento rapido per le reti di credenze profonde Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh (comunicato da Yann Le Cun) Computazione neurale 18 2006
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Networks / hinton1 * .pdf
FINN: Un framework per un'inferenza di rete neurale binarizzata veloce e scalabile Yaman Umuroglu, et al 2016
https://arxiv.org/pdf/1612.07119.pdf
Dall'apprendimento automatico al ragionamento automatico Léon Bottou 08/02/2011
https://arxiv.org/pdf/1102.1808.pdf
Apprendimento profondo Yann LeCun1,2, Yoshua Bengio3 e Geoffrey Hinton4,5 Nature vol 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf