Supponiamo di avere una rappresentazione vettoriale di qualsiasi numero intero di magnitudine n, V_n
Questo vettore è l'input di un algoritmo di apprendimento automatico.
Prima domanda: per quale tipo di rappresentazione è possibile apprendere la primalità / la composizione di n usando una rete neurale o qualche altra mappatura ML da vettore a bit. Questo è puramente teorico: la rete neurale potrebbe avere dimensioni illimitate.
Ignoriamo le rappresentazioni che sono già correlate al test di primalità come: l'elenco separato da null di fattori di n, o l'esistenza di un testimone di composizione come in Miller Rabin. Concentriamoci invece su rappresentazioni in radicali diversi o rappresentazioni come vettori di coefficienti di polinomi (possibilmente multivariati). O altri esotici come sono ipotizzati.
Seconda domanda: per quali, se del caso, i tipi di algoritmo ML saranno impossibili da imparare indipendentemente dalle specifiche del vettore di rappresentazione? Ancora una volta, lasciamo fuori le rappresentazioni "vietate dalla banalità" di cui sono riportati esempi sopra.
L'output dell'algoritmo di machine learning è un singolo bit, 0 per prime, 1 per composito.
Il titolo di questa domanda riflette la mia valutazione secondo cui il consenso per la domanda 1 è "sconosciuto" e il consenso per la domanda 2 è "probabilmente la maggior parte degli algoritmi ML". Lo sto chiedendo perché non ne so più di così e spero che qualcuno possa indicare la strada.
La motivazione principale, se esiste, di questa domanda è: esiste un limite "teorico dell'informazione" alla struttura dell'insieme di numeri primi che può essere catturato in una rete neurale di una dimensione particolare? Dato che non sono esperto in questo tipo di terminologia, vorrei riformulare questa idea alcune volte e vedere se ottengo un'approssimazione di Monte-Carlo al concetto: qual è la complessità algoritmica dell'insieme di numeri primi? Il fatto che i numeri primi siano diottantanici ricorsivamente enumerabili (e in grado di soddisfare una particolare grande equazione diottanica ) può essere usato per catturare la stessa struttura in una rete neurale con gli input e gli output sopra descritti.