Il potere irragionevole della non uniformità


33

Dal punto di vista del buonsenso, è facile credere che l'aggiunta del non determinismo a estenda significativamente il suo potere, vale a dire che è molto più grande di . Dopotutto, il non determinismo consente il parallelismo esponenziale, che senza dubbio appare molto potente. PNPP

D'altra parte, se aggiungiamo semplicemente non uniformità a , ottenendo , allora l'intuizione è meno chiara (supponendo che escludiamo i linguaggi non ricorsivi che potrebbero verificarsi in ). Ci si potrebbe aspettare che il semplice consentire diversi algoritmi temporali polinomiali per diverse lunghezze di input (ma non lasciare il regno ricorsivo) sia un'estensione meno potente del parallelismo esponenziale nel non determinismo.PP/polyP/poly

È interessante notare, tuttavia, se confrontiamo queste classi con la classe molto grande , allora vediamo la seguente situazione contro-intuitiva. Sappiamo che contiene correttamente , il che non sorprende. (Dopotutto, consente un parallelismo doppiamente esponenziale. D'altra parte, attualmente non possiamo escludere .NEXPNEXP NPN E X PP / p o l yNEXPNEXPP/poly

Pertanto, in questo senso, la non uniformità, se aggiunta al tempo polinomiale, la rende possibilmente estremamente potente, potenzialmente più potente del non determinismo. Potrebbe persino arrivare a simulare il parallelismo doppiamente esponenziale ! Anche se crediamo che non sia così, ma il fatto che attualmente non possa essere escluso suggerisce ancora che i teorici della complessità stanno lottando con "potenti poteri" qui.

Come spiegheresti a un laico intelligente cosa c'è dietro questo "potere irragionevole" di non uniformità?


16
La difficoltà di comprendere la non uniformità (e di dimostrare i limiti inferiori del circuito generale) non implica necessariamente che la non uniformità sia potente (nel senso che è possibile utilizzarla per risolvere problemi interessanti).
Kaveh,

4
Non credo che nessuno creda o persino . Il fatto che queste domande rimangano aperte è più un'affermazione sulla nostra imbarazzante incapacità di dimostrare limiti inferiori del circuito. NEXPP/polyNPP/poly
Thomas,

8
@Thomas: Non presumo di parlare per qualcun altro, ma dirò che conosco almeno un ricercatore molto rispettato che in realtà ipotizza che . EXPP/poly
Joshua Grochow,

2
@Thomas: Non esattamente, ma penso che riguardi quanto poco comprendiamo la non uniformità. Ad esempio, per quanto ne sappiamo, (e come congetturato da Kolmogorov, vedi cstheory.stackexchange.com/a/22048/129 ) P ha ckts di dimensione . Come altro esempio, sembra che ci siano pochi (se presenti) problemi naturali noti in che non sono né sparsi né in BPP ( cstheory.stackexchange.com/questions/1662/… ). Eppure, considerando ckts, si potrebbe pensare che sia significativamente più potente della randomizzazione + ricerca della tabella. O(n)P/polyP/poly
Joshua Grochow,

6
Fare eco a @thomas se non possiamo dimostrare che NEXP non è in P / poly significa che esiste un "potere irragionevole di non uniformità", quindi poiché non possiamo dimostrare P <> NP significa che deve esserci un "potere irragionevole di calcolo efficiente".
Lance Fortnow,

Risposte:


33

Una risposta è che questa non è la prima cosa sulla teoria della complessità che proverei a spiegare a un laico! Per apprezzare anche l'idea di non uniformità e in che modo differisce dal non determinismo, è necessario essere più in basso nelle erbacce con le definizioni delle classi di complessità che molte persone sono disposte a ottenere.

Detto questo, una prospettiva che ho trovato utile, quando ho spiegato P / poly agli studenti universitari, è che la non uniformità significa davvero che puoi avere una sequenza infinita di algoritmi sempre migliori, mentre passi a lunghezze di input sempre più grandi. In pratica, ad esempio, sappiamo che l'algoritmo di moltiplicazione a matrice naïf funziona meglio per matrici fino a dimensioni 100x100 o giù di lì, e poi ad un certo punto la moltiplicazione di Strassen diventa migliore, e quindi gli algoritmi più recenti diventano migliori solo per matrici astronomicamente grandi che non sorgerebbe mai in pratica. Quindi, se avessi la magica capacità di concentrarti sul miglior algoritmo per qualsiasi intervallo di n con cui ti sei imbattuto?

Certo, sarebbe una strana abilità, e tutto sommato, probabilmente non utile quanto la capacità di risolvere i problemi NP-completi in tempo polinomiale. Ma a rigor di termini, sarebbe un'abilità incomparabile : non è quella che otterresti automaticamente anche se P = NP. In effetti, puoi persino costruire esempi inventati di problemi incontestabili (ad esempio, dato 0 n come input, l' ennesima macchina di Turing si ferma?) Che questa abilità ti permetterebbe di risolvere. Quindi, questo è il potere della non uniformità.

Per capire il punto di considerare questo strano potere, probabilmente avresti bisogno di dire qualcosa sulla ricerca per dimostrare i limiti inferiori del circuito e sul fatto che, dal punto di vista di molte delle nostre tecniche del limite inferiore, è l' uniformità che sembra una strana condizione extra che non abbiamo quasi mai bisogno.


2
Mi piace molto l'argomento "sequenza infinita di algoritmi migliori e migliori". In realtà stavo cercando tali argomenti, che sono utili per spiegare il quadro generale agli studenti universitari. Come si applica questo argomento, tuttavia, se viene sostituito con B P P ? Per B P P la stessa domanda originale potrebbe essere riscritta, poiché attualmente non possiamo separare N E X P da B P P o. P/polyBPPBPPNEXPBPP
Andras Farago,

7
BPP è molto più facile da motivare! Sta solo cercando di modellare il potere della randomizzazione, che (a differenza della non uniformità) è qualcosa che viene usato tutto il tempo in pratica. (Per inciso, però, ho dimenticato di menzionare: un modo diverso di motivare la non uniformità sarebbe attraverso la crittografia. Potresti sottolineare che gli avversari hanno il lusso di ottimizzare tutte le loro risorse di attacco verso qualunque lunghezza chiave sia stata scelta come standard, quindi tu faresti meglio ad avere un sistema crittografico che ritieni sicuro contro attaccanti non uniformi a quella lunghezza fissa, non solo contro attaccanti uniformi.)
Scott Aaronson,

1
Concordo pienamente sul fatto che sia più facile da motivare. Ciò che non è chiaro, tuttavia, è questo: cosa dà a B P P un potere tale che attualmente non possiamo escludere che potrebbe persino simulare il parallelismo doppiamente esponenziale di N E X P ? Poiché B P P differisce solo dalla forma P tramite la casualità, ed è ipotizzato per buona ragione che la casualità qui sia impotente (cioè, P = B P P ), questa mi sembra una situazione strana. Sto cercando una "comprensione filosofica" della situazione, al di là dell'ovvio fatto che mancano gli strumenti per dimostrareBPPBPPNEXPBPPPP=BPP . NEXPBPP
Andras Farago,

2
Ma cosa succede se in realtà è solo il fatto che gli strumenti mancano? Abbiamo i teoremi della gerarchia, che ci permettono di dimostrare che più della stessa risorsa ti dà più potere (ad esempio, ), e quando non possiamo ridurre a un teorema di gerarchia siamo solitamente bloccati. Questo è un problema generale che si presenta in tutta la gerarchia di complessità, non è qualcosa di specifico per B P P . PEXPBPP
Scott Aaronson,

28

Ecco un argomento di "scorrevolezza" che ho ascoltato di recente a difesa dell'affermazione secondo cui i modelli di calcolo non uniformi dovrebbero essere più potenti di quanto sospettiamo. Da un lato, sappiamo dal teorema della gerarchia temporale che ci sono funzioni calcolabili nel tempo che non sono calcolabili nel tempo O ( 2 n ) , per esempio. D'altra parte, secondo il teorema di Lupanov, qualsiasi funzione booleana su n ingressi è calcolabile da un circuito di dimensioni ( 1 + o ( 1 ) ) 2 n / nO(22n)O(2n)n(1+o(1))2n/n. Quindi se affermiamo che la non uniformità non dà molto potere, cioè che dovrebbe comportarsi come D T I M E ( f ( n ) O ( 1 ) ) , allora questa affermazione dovrebbe fermarsi bruscamente tenendo premuto quando f ( n ) diventa 2 O ( n ) . Ma questo comportamento - due misure di complessità vanno di pari passo fino a quando all'improvviso uno di loro diventa onnipotente - sembra arbitrario e in qualche modo innaturale.SIZE(f(n))DTIME(f(n)O(1))f(n)2O(n)

D'altra parte, se i circuiti sono abbastanza potenti che , allora da Karp-Lipton la gerarchia polinomiale crolla al secondo livello, il che sarebbe anche strano: perché i quantificatori smetterebbero improvvisamente di dare più potenza al calcolo ? Non sono sicuro di dove ci lasci.NPP/poly


1
Molto interessante! Illustra bene che la nostra comprensione del modello non uniforme (circuitale) di calcolo è ancora molto lontana dall'essere completa.
Andras Farago,

4
Senza commentare se sia probabile un simile collasso: è un arresto improvviso del potere computazionale al secondo livello, quando questo è esattamente sufficiente per avere entrambi i tipi di quantificatore?
Niel de Beaudrap,

@NieldeBeaudrap Punto molto interessante. Ovviamente tutto ciò (inclusa la speculazione nella mia risposta) è più teologia che matematica, ma è divertente speculare.
Sasho Nikolov,

3
@Sasho: non è teologia, o addirittura opinione: è proto-matematica, no? È una contabilità delle idee che sono probabilmente rilevanti e soppesarle per intuizione. Non c'è molto altro da fare quando si perde nei boschi, ma è più produttivo di, diciamo, raccontare storie di fantasmi. :-)
Niel de Beaudrap,

10

Presumo che parlare con qualcuno di e N P significa che la persona abbia familiarità con la P vs N P domanda e la dualità verifica-solving.P/polyNPPNP

Poi, vorrei cercare di spiegare che è così potente perché per ogni lunghezza differente, TM è dato suggerimenti che può fidare completamente. Quindi vorrei menzionare che possiamo escogitare linguaggi difficili (non calcolabili in realtà non TM) che hanno 1 parola per lunghezza di input (cioè unaria), quindi sono in P / poly! Ma forse un lungo consiglio polinomiale non è sufficiente per risolvere tutte le lingue in N P , dal momento che ci è permesso un suggerimento diverso per ogni input diverso.P/polyNP

D'altra parte, vorrei ricordare a quella persona che deve verificare la risposta, non fidarsi completamente. Quindi, non possiamo usare lo stesso consiglio per ogni lunghezza di input, potrebbe non essere verificabile!NP

Infine, vorrei ricordare che teorici della complessità credono che ci sono lingue in che richiedono più di polinomiali molti suggerimenti per un certo periodo di ingresso, e quindi non può essere in P / p o l y .NPP/poly

Un punto critico per dare una buona comprensione, che penso sia comune anche quando si insegna la materia per la prima volta, è chiarire che la consulenza e il "suggerimento" (cioè il certificato) sono cose diverse e come differiscono.


10

Per me, l'illustrazione più netta del potere della non uniformità è che una versione adeguatamente imbottita del problema Halting è già in P / 1. Un singolo consiglio è quindi sufficiente per decidere questa lingua con una banale TM che restituisce semplicemente il consiglio.

Ovviamente, riempire un linguaggio indecidibile con una quantità esponenziale significa che non è "moralmente" in P / poli. Ma ciò dimostra che bisogna prestare attenzione quando si consente la non uniformità.


3

Ho l'impressione che il vero problema qui sia l'irragionevole pesante onere della prova, non l'irragionevole potere della non uniformità. Come già sottolineato dalle risposte di Chazisop e András Salamon, le lingue indecidibili diventano calcolabili anche in lingue non uniformi molto ristrette, perché l'onere della prova è stato completamente eliminato.

L'intuizione di base per cui potremmo cavarcela senza una prova è che ci sono solo ingressi diversi di lunghezza n , per i quali dobbiamo verificare che il circuito fornisca la risposta corretta. Quindi sembra che ci sarebbe una prova al massimo della lunghezza esponenziale in n , che il circuito fornisce effettivamente la risposta corretta. Ma questo è vero solo se esiste per ogni input di lunghezza n una prova della lunghezza esponenziale al massimo in n , che l'input è (non) contenuto nella lingua (se in realtà è (non) contenuto nella lingua) . Si noti che molti ingressi in modo esponenziale moltiplicato per una prova al massimo esponenzialmente lunga per ciascun ingresso forniscono una prova completa per tutti gli ingressi di lunghezza esponenziale, poiché2nnnnn .2nexp(O(n))=exp(nlog(2)+O(n))=exp(O(n))

Se si richiede la presenza di una prova al massimo la lunghezza esponenziale in per le lingue non uniformi, allora possiamo provare che tutte queste lingue sono contenute in N E X P . L'algoritmo non deterministico corrispondente necessita solo di un suggerimento che contenga sia un "piccolo" circuito insieme a una "piccola" prova che questo circuito calcola realmente ciò che dovrebbe calcolare.nNEXP

P/poly'NPnP/poly'PNPP/poly') è ancora vero, ma questa affermazione è meno interessante del vero teorema di Karp-Lipton.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.