Necrologi di congetture morte


44

Sto cercando congetture su algoritmi e complessità che sono stati considerati credibili da molti ad un certo punto nel tempo, ma in seguito sono stati smentiti, o almeno non creduti, a causa della crescente contro-prova. Ecco due esempi:

  1. Ipotesi sull'oracolo casuale: le relazioni tra classi di complessità che valgono per quasi tutti i mondi relativizzati, valgono anche nel caso non relativizzato. Ciò è stato smentito dal risultato e dimostrando che vale per quasi tutti gli oracoli casuali , vedi L'ipotesi Oracle casuale è falsa .IP=PSPACEIPXPSPACEXX

  2. La casualità dell'errore limitato estende correttamente la potenza del tempo polinomiale (cioè ). Questo è stato creduto per un po ', ma in seguito, a causa dei sofisticati risultati della derandomizzazione e delle loro connessioni con la complessità del circuito, la congettura opposta ( ) è diventata prevalente (anche se ancora aperta).PBPPP=BPP

Quali sono alcune altre congetture che hanno fallito la prova del tempo?


3
Prima di IP = PSPACE, si pensava addirittura che , vedi Fortnow-Sipser 1988 . Non so se questo conta come una risposta separata con la stessa risoluzione, o se è troppo simile al tuo esempio 1.coNPIP
Joshua Grochow,

4
Il programma di Hilbert ("... elimina una volta per tutte le domande fondamentali in matematica come tale ...") e la sua "congettura" sulla decidibilità delle teorie formali [~ 1920], che "si schiantò" (piuttosto rapidamente [1931 ]) nel teorema di incompletezza di Godel :-)
Marzio De Biasi,

2
La recensione di questo articolo, di Kreisel, recita "Questo documento stabilisce che ogni (re) insieme ricorsivamente enumerabile può essere definito esistenzialmente in termini di esponenziazione ... Questi risultati sono superficialmente correlati al decimo problema di Hilbert su (ordinario, cioè non esponenziale ) Equazioni di Dihanthant. ... non è del tutto plausibile che tutti i problemi (ordinari) di Dihanthantine siano uniformemente riducibili a quelli in un numero fisso di variabili di grado fisso, che sarebbe il caso se tutti i reimpostamenti fossero diothantici. " (Vedi anche qui .)
Andrés E. Caicedo,


3
Anche il post Risultati sorprendenti dal blog Computational Complexity.
Kaveh,

Risposte:


22

NLcoNL . Prima del risultato che questi due erano uguali, penso che si credesse ampiamente che fossero distinti, per analogia con la convinzione che (cioè il principio generale che "non determinismo e co- il non determinismo è diverso "; questo si rivelò falso sotto i limiti della complessità dello spazio che erano almeno logaritmici).NPcoNP


'analogia'? uno è il tempo e un altro è lo spazio no?

7
@Arul: Sì. È un'analogia tra le classi di complessità definite dal tempo di delimitazione e le classi di complessità definite dal delimitando lo spazio ...
Joshua Grochow,

Ma il tempo e lo spazio non sono equivalenti (almeno congetturalmente)

25
@Arul: corretto. Questo è esattamente il motivo per cui è solo un'analogia ...
Joshua Grochow,

19

Prima di , si riteneva possibile che anche non fosse contenuto in : in Fortnow-Sipser 1988 hanno ipotizzato che questo fosse il caso e hanno dato un oracolo rispetto al quale era vero.IP=PSPACEcoNPIP


18

I programmi di ramificazione a larghezza costante richiedono più della lunghezza polinomiale per contare : Dopo Furst-Saxe-Sipser e Ajtai nel 1981 hanno dimostrato che i circuiti AC 0 non possono contare, un passo successivo naturale sembra essere quello di mostrare che i programmi di ramificazione a larghezza costante del polinomio la lunghezza non poteva contare, il che era ampiamente ipotizzato da sostenere. David Barrington nel 1986 ha dimostrato che non solo possono contare ma che sono equivalenti a NC 1 .


17

La : che qualsiasi algoritmo deterministico per richiede il tempo .3SUM3SUMΩ(n2)

Ciò è stato smentito nel 2014 da Allan Grønlund e Seth Pettie, che hanno fornito un algoritmo deterministico che gira in time [1].O(n2/(logn/loglogn)2/3)

[1] Sesso a tre, degenerati e triangoli amorosi. Allan Grønlund e Seth Pettie. In Foundations of Computer Science (FOCS) 2014, pagg. 621-630. arXiv: 1404.0799 [cs.DS]


5
In che modo hanno passato quel titolo oltre i recensori?
David Zhang,

17

La soluzione del decimo problema di Hilbert di Davis, Matiyasevich, Putnam e Robinson, dimostrando che i set ricorsivamente enumerabili sono proprio i set di Diophantine.

(Sto riproducendo qui un post sul blog , Hindsight , di un paio di anni fa, come suggerito nei commenti.)

Dalla recensione di Georg Kreisel di Il problema decisionale per le equazioni esponenziali delle diottantine , di Martin Davis, Hilary Putnam e Julia Robinson, Ann. della matematica. (2), 74 (3) , (1961), 425–436. MR0133227 (24 # A3061) .

Questo documento stabilisce che ogni (re) set ricorsivamente enumerabile può essere definito esistenzialmente in termini di esponenziazione. […] Questi risultati sono superficialmente correlati al decimo problema di Hilbert sulle equazioni di Diophantine (ordinarie, cioè non esponenziali). La prova dei risultati degli autori, sebbene molto elegante, non usa fatti reconditi nella teoria dei numeri né nella teoria dei reimpostazioni, e quindi è probabile che il risultato attuale non sia strettamente collegato al decimo problema di Hilbert. Inoltre, non è del tutto plausibile che tutti i (normali) problemi di Diothantine siano uniformemente riducibili a quelli in un numero fisso di variabili di grado fisso, che sarebbe il caso se tutti i reimpostamenti fossero diotropici.

Naturalmente, la mia citazione preferita in relazione al decimo problema va dalla prefazione di Martin Davis al decimo problema di Hilbert di Yuri Matiyasevich .

Durante gli anni '60 ho spesso avuto occasione di tenere conferenze sul Decimo problema di Hilbert. A quel tempo si sapeva che l'insolvibilità sarebbe derivata dall'esistenza di una singola equazione diofantina che soddisfaceva una condizione che era stata formulata da Julia Robinson. Tuttavia, sembrava straordinariamente difficile produrre una simile equazione, e in effetti l'opinione prevalente era che era improbabile che esistesse. Nelle mie lezioni, sottolineerei le conseguenze importanti che potrebbero derivare da una prova o da una confutazione dell'esistenza di tale equazione. Inevitabilmente durante il periodo di domanda mi verrebbe chiesto il mio parere su come sarebbero andate le cose, e avevo pronta la mia risposta: "Penso che l'ipotesi di Julia Robinson sia vera e che sarà dimostrata da un giovane russo intelligente".


9

Il programma di Hilbert e la sua "congettura" sulla decidibilità delle teorie formali. Fu formulato nei primi anni '20 e fu perseguito da lui e dai suoi collaboratori all'Università di Gottinga e altrove negli anni '20 e '30.

"Con questo nuovo fondamento della matematica - che si può chiamare appropriatamente una teoria della prova - credo di disporre una volta per tutte delle domande fondamentali in matematica come tale trasformando ogni affermazione matematica in una formula concretamente esibibile e rigorosamente derivabile e trasferendo così la intero complesso di domande nel dominio della matematica pura ".

È noto che le proposte di Hilbert "si schiantarono" (piuttosto rapidamente [1931]) nel teorema di incompletezza di Godel .

Per una bella panoramica del programma di Hilbert e degli sviluppi successivi vedi: Richard Zach; Programma di Hilbert allora e adesso; Manuale della filosofia della scienza. Volume 5: Philosophy of Logic; 2006

Vedi anche la risposta di Andrés Caicedo per un altro aspetto della storia: il decimo problema di Hilbert che è stato risolto solo nel 1970.


7

In una conferenza di Madhu Sudan * ha affermato che esisteva una certa convinzione che esistessero tali che , via programmazione semidefinita, prima della dimostrazione del teorema PCP a tre bit di Håstad.s>1/2PCP1,s[logn,3]P

In effetti SDP mostra , dando un forte vincolo alla complessità di tali PCP.PCP1,1/2[logn,3]=P

(* Ho trovato questa lezione di Madhu pubblicata su "Teoria della complessità computazionale a cura di Rudich / Wigderson")


1

le congetture spaziano su uno spettro da formale a informale. per esempio la famosa congettura di Hilberts sulla decidibilità della matematica è stata formalizzata in alcuni problemi, ad esempio il decimo problema di Hilberts, ma era anche una congettura informale più grandiosa che abbracciava l'intero campo. può anche essere visto come un programma di ricerca proposto.

una ricetta semplice per trovare un simile "necrologio di congetture morte" sarebbe quella di considerare la frase "meta-" "[x] congetture potrebbero essere dimostrate nella mia vita". la letteratura matematica è piena di tali affermazioni / aspettative che si sono rivelate "false" nel senso di sfidare completamente le aspettative sulla difficoltà e l'accessibilità di una prova. una classica è la congettura di Riemann, aperta per oltre un secolo e mezzo. applicare questo stesso modello alla teoria della complessità non è così facile perché la teoria della complessità è un campo scientifico molto più giovane. tuttavia, ecco un esempio chiave.

la prima scoperta del problema P vs NP (ora aperto 4 decenni e mezzo) ebbe una sorta di innocenza in quanto gli investigatori originali non lo fecero e non avrebbero potuto immaginare quanto il problema si sarebbe rivelato difficile o trasversale. per renderlo più specifico, si consideri il campo della complessità del circuito inventato nei primi anni '80, ad esempio da Sipser. questo era un programma di ricerca un po 'come Hilberts montato in parte per attaccare P contro NP. parte del risultato storico è sintetizzato da Arvind in questo abstract / introduzione The Computational Complexity Column, BEATCS 106 :

Gli anni '80 furono un periodo d'oro per i limiti inferiori della complessità del circuito booleano. Ci sono stati grandi progressi. Ad esempio, la dimensione esponenziale di Razborov limite inferiore per monotone circuiti booleani calcolo della funzione di cricca e la dimensione superpolynomial Razborov-Smolensky limiti inferiori per circuiti profondità costante con MOD p cancelli per primo p. Questi risultati hanno reso i ricercatori ottimisti dei progressi compiuti su grandi domande con limiti inferiori e separazioni delle classi di complessità. Tuttavia, negli ultimi due decenni, questo ottimismo si è gradualmente trasformato in disperazione. Non sappiamo ancora come dimostrare limiti inferiori superpolinomiali per circuiti a profondità costante con porte MOD 6 per una funzione calcolabile in tempo esponenziale.

c'erano due documenti chiave che abbattevano le speranze sul campo. Razborov ebbe grandi / celebri risultati sulla funzione Clique ma poi scrisse due articoli opposti. un documento ha mostrato che il Matching, un problema di P-time, richiede circuiti monotone esponenziali e quindi in un certo senso l'approccio del circuito monotono ai limiti inferiori è stato contrastato a causa della mancanza di corrispondenza nella complessità con circuiti non monotoni ("completi") (ancora non del tutto inteso).

questo è stato ampliato nel suo famoso documento Prove naturali coautore di Rudich in cui è dimostrato che tutte le prove dei limiti inferiori del circuito precedente sono soggette a un modello particolare che ha una debolezza dimostrabile nel senso di essere in conflitto con i limiti inferiori congetturati su generatori di numeri casuali casuali da crittografia.

così, in una certa misura, i circuiti sono "caduti in disgrazia". è ancora una vasta area di ricerca, ma la saggezza convenzionale, supportata da risultati tecnici, è che sarebbe necessario un qualche tipo di modello / struttura di prova speciale ancora sconosciuto per ottenere risultati forti nell'area, se addirittura addirittura possibile. in effetti allo stesso modo si potrebbe suggerire che anche "forti limiti inferiori nella teoria della complessità" sono ora considerati estremamente difficili, e ciò non era ampiamente previsto / previsto nei giorni più giovani del campo. ma d'altra parte questo li classifica quindi in difficoltà / significato / importanza con i grandi (aperti) problemi della matematica.


1
Quale congettura stai mettendo in evidenza? Inoltre, la complessità del circuito sembra essere sia molto attiva che piuttosto riuscita, ad esempio le molteplici scoperte di Rossman; vedere l'autorevole manuale di Jukna per una panoramica più radicata del campo.
András Salamon,

ci sono più idee correlate, ma ad esempio la congettura "approssimativa" che i circuiti in generale o una forma speciale (ad es. monotono) potrebbe dimostrare P vs NP o forti limiti inferiori ... non è mai stata esattamente esattamente formalizzata ma circola in molti (vecchi) documenti di teoria dei circuiti. non è neppure del tutto smentito, ma è fortemente rivisto con il senno di poi 2020. la storia del circuito monotono in particolare è una "quasi inversione".
vzn,

8
Se hai citato alcuni riferimenti specifici come supporto per un circuito monotono di faccia, allora sarebbe una bella risposta. Ma quanto sopra si presenta come lanciare un sacco di parole al muro e sperare in qualche bastone; ha sfumature ma manca una chiara tesi. Nella mia lettura non ho avuto l'impressione che i circuiti monotoni fossero mai stati ritenuti particolarmente potenti.
András Salamon,

@ AndrásSalamon: penso che questa visione rappresenti il ​​vantaggio del senno di poi. Cioè, dopo il limite inferiore esponenziale di Razborov sui circuiti monotoni per la cricca, penso che ci fosse un ottimismo abbastanza diffuso che i limiti inferiori del circuito molto più grandi (come ) fossero "proprio dietro l'angolo". (Forse non così diffuso quanto la convinzione che , ma penso sia abbastanza diffuso da essere degno di nota come risposta a questa domanda.)NPP/polyPneqNP
Joshua Grochow,

@JoshuaGrochow, sono d'accordo, ma è abbastanza diverso dal filo aggrovigliato sopra. Vale forse la pena pubblicare come risposta?
András Salamon,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.