Rigore che porta all'intuizione


41

Su MathOverflow, Timothy Gowers ha posto una domanda intitolata " Dimostrare che il rigore è importante ". La maggior parte della discussione riguardava casi che mostravano l'importanza della prova, di cui probabilmente le persone su CSTheory non devono essere convinte. Nella mia esperienza, le prove devono essere più rigorose nell'informatica teorica che in molte parti della matematica continua, perché la nostra intuizione si rivela così spesso sbagliata per strutture discrete e perché la spinta a creare implementazioni incoraggia argomenti più dettagliati. Un matematico può accontentarsi di una prova dell'esistenza, ma un teorico informatico di solito cerca di trovare una prova costruttiva. Il Lemma locale Lovász è un bell'esempio [1].

Vorrei quindi sapere

ci sono esempi specifici di informatica teorica in cui una prova rigorosa di una dichiarazione ritenuta vera ha portato a nuove intuizioni sulla natura del problema di fondo?

Un esempio recente che non proviene direttamente dagli algoritmi e dalla teoria della complessità è la sintesi teorica delle prove , la derivazione automatica di algoritmi corretti ed efficienti dalle condizioni pre e post [2].


Modificare:Il tipo di risposta che avevo in mente è come quelle di Scott e Matus. Come suggerito da Kaveh, questa è una tripla di qualcosa che la gente voleva dimostrare (ma che non era necessariamente inaspettato da "fisica", "discussione manuale" o argomenti "intuitivi"), una prova e conseguenze per il "problema di fondo" che seguito da quella prova che non era prevista (forse la creazione di una prova richiedeva nuove idee inaspettate, o porta naturalmente a un algoritmo o ha cambiato il modo in cui pensiamo all'area). Le tecniche sviluppate durante lo sviluppo delle prove sono i mattoni della scienza teorica dell'informatica, quindi per mantenere il valore di questa domanda in qualche modo soggettiva, varrebbe la pena concentrarsi sull'esperienza personale, come quella fornita da Scott, o su un argomento supportato da riferimenti, come ha fatto matus. Inoltre, io ' sto cercando di evitare discussioni sul fatto che qualcosa si qualifichi o no; purtroppo la natura della domanda può essere intrinsecamente problematica.

Abbiamo già una domanda sui risultati "sorprendenti" della complessità: risultati sorprendenti nella complessità (non nell'elenco dei blog sulla complessità), quindi idealmente sto cercando risposte che si concentrano sul valore di una prova rigorosa , non necessariamente sulla dimensione della svolta.


2
Non lo vediamo / lo facciamo tutti i giorni?
Dave Clarke,

Cosa si intende esattamente per "problema di fondo?" Intendi suggerire solo problemi in cui esiste un problema più profondo di una particolare affermazione? Stavo pensando a qualsiasi problema che implichi la prova costruttiva dell'esistenza di un algoritmo (ad esempio, il test di primalità di AKS per stabilire che PRIMES è in P) porterebbe a "nuove intuizioni" tramite prove rigorose, ma se parli solo su affermazioni minori all'interno di un problema, non avrebbe senso.
Philip White,

Solo per essere sicuro di aver compreso la tua domanda, stai chiedendo una tripla (affermazione S, dimostrazione P, intuizione I), in cui l'affermazione S è conosciuta / ritenuta vera, ma otteniamo una nuova intuizione (I) quando qualcuno viene con la nuova prova P per S?
Kaveh,

[continua] Ad esempio nel caso LLL, abbiamo avuto prove non costruttive per LLL (S), ma la nuova prova costruttiva arXive (P) ci fornisce una nuova visione (I).
Kaveh,

Hmm ... Che ne dici di iniziare con algoritmi specifici e poi di usarli come punti dati per generalizzare? Ad esempio, le persone progettano alcuni algoritmi avidi e alla fine il campo sviluppa la nozione di un problema con una sottostruttura ottimale.
Aaron Sterling,

Risposte:


34

András, come probabilmente saprai, ci sono così tanti esempi di ciò di cui stai parlando che è quasi impossibile sapere da dove cominciare! Tuttavia, penso che questa domanda possa effettivamente essere una buona domanda, se le persone forniscono esempi della propria esperienza in cui la prova di una congettura ampiamente creduta nella loro sottozona ha portato a nuove intuizioni.

Quando ero studente, il primo vero problema TCS che ho affrontato è stato questo: qual è l'algoritmo quantistico più veloce per valutare un OR di √n ANDs di √n variabili booleane ciascuno? Era dolorosamente ovvio per me e per tutti gli altri con cui ho parlato che il meglio che potevi fare sarebbe applicare l'algoritmo di Grover in modo ricorsivo, sia per gli OR che per gli AND. Ciò ha dato un limite superiore O (√n log (n)). (In realtà è possibile eliminare il fattore registro, ma per ora ignoriamolo.)

Con mia enorme frustrazione, tuttavia, non ero in grado di dimostrare un limite inferiore migliore del banale Ω (n 1/4 ). "Andare fisico" e "handwaving the answer" non sono mai stati così attraenti! :-D

Ma poi, pochi mesi dopo, Andris Ambainis uscì con il suo metodo quantistico avversario , la cui applicazione principale inizialmente era un limite inferiore di Ω (√n) per gli OR-of-AND. Per provare questo risultato, Andris ha immaginato di alimentare un algoritmo quantico una sovrapposizione di input diversi; ha quindi studiato come aumentava l'entanglement tra gli input e l'algoritmo ad ogni query dell'algoritmo. Ha mostrato in che modo questo approccio consente di ridurre la complessità della query quantistica anche per problemi "disordinati" e non simmetrici, utilizzando solo proprietà combinatorie molto generali della funzione f che l'algoritmo quantistico stava cercando di calcolare.

Lungi dal confermare che la complessità della query quantistica di un fastidioso problema era ciò che tutti si aspettavano che fosse, queste tecniche si sono rivelate uno dei più grandi progressi nella teoria dell'informatica quantistica dagli algoritmi di Shor e Grover. Da allora sono stati usati per dimostrare dozzine di altri limiti inferiori quantici e sono stati persino riproposti per ottenere nuovi limiti inferiori classici .

Naturalmente, questo è "solo un altro giorno nel meraviglioso mondo della matematica e del TCS". Anche se tutti "già sanno" X è vero, per dimostrare che X richiede spesso di inventare nuove tecniche che vengono poi applicate ben oltre X, e in particolare ai problemi per i quali la risposta giusta era molto meno ovvia a priori .


27

La ripetizione parallela è un bell'esempio della mia zona:

Lxq1q2a1a2a1a2q1,q2xLxLs

s1s=1015kq1(1),,q1(k)q2(1),,q2(k)a1(1),,a1(k)a1(1),,a1(k)k

skksΩ(k/log|Σ|)Σ

Σk

Quindi, ci sono le estensioni che sono diventate possibili: Anup Rao è stato in grado di adattare l'analisi per mostrare che quando il sistema di prove originale è un {\ em pro game game}, cioè la risposta del primo proverte determina al massimo una risposta accettabile di il secondo prover non ha alcuna dipendenza dall'alfabeto e la costante nell'esponente può essere migliorata. Questo è importante perché la maggior parte dei risultati di approssimazione si basano su giochi di proiezione e giochi unici sono un caso speciale di giochi di proiezione. Ci sono anche miglioramenti quantitativi nei giochi sugli espansori (di Ricky Rosen e Ran Raz) e altro ancora.

Quindi, ci sono conseguenze di vasta portata. Solo alcuni esempi: un lemma teorico dell'informazione tratto dall'articolo di Raz è stato usato in molti altri contesti (in crittografia, in equivalenza di campionamento e ricerca, ecc.). La tecnica del "campionamento correlato" che Holenstein usò fu applicata in molte altre opere (nella complessità della comunicazione, nel PCP, ecc.).


3
Questo è un bell'esempio!
Suresh Venkat,

20

Un altro buon esempio di rigore (e nuove tecniche) è necessario per dimostrare le affermazioni ritenute vere: analisi smussata. Due casi in questione:

  • L'algoritmo simplex
  • L'algoritmo k-mean

kO(nckd)n


13

Penso che il seguente esempio abbia generato molte ricerche che hanno prodotto risultati del tipo che stai cercando, almeno se seguo lo spirito del tuo esempio LLL.

Robert E. Schapire. La forza della debole apprendibilità. Apprendimento automatico, 5 (2): 197-227, 1990.

ϵ>0,δ>01δϵϵδδδγ

Comunque, le cose sono diventate molto interessanti dopo il documento di Schapire. La sua soluzione ha prodotto una maggioranza della maggioranza rispetto alle ipotesi nella classe originale. Poi venne:

Yoav Freund. Promuovere a maggioranza un algoritmo di apprendimento debole. Informazione e calcolo, 121 (2): 256--285, 1995.

Questo documento aveva una "riproposizione" del risultato di Schapire, ma ora l'ipotesi costruita utilizzava solo una maggioranza. Lungo queste linee, i due hanno quindi prodotto un altro rimprovero, chiamato AdaBoost:

Yoav Freund e Robert E. Schapire. Una generalizzazione decisionale teorica dell'apprendimento on-line e un'applicazione per il potenziamento. Journal of Computer and System Sciences, 55 (1): 119-139, 1997.

La domanda di apprendimento debole / forte è nata principalmente come una preoccupazione teorica, ma questa sequenza di "rimproveri" ha prodotto un bellissimo algoritmo, uno dei risultati più influenti nell'apprendimento automatico. Potrei andare avanti su ogni sorta di tangenti qui, ma mi limiterò. Nel contesto del TCS, questi risultati respirano molta vita nel contesto di (1) algoritmi di peso moltiplicativo e (2) risultati fissi. A proposito di (1), vorrei solo chiarire che AdaBoost può essere visto come un'istanza del lavoro moltiplicativo pesi / winnow di Warmuth / Littlestone (Freund era uno studente Warmuth), ma ci sono molte nuove intuizioni nel potenziamento risultati. A proposito di (2), I '

Per precisione storica, dovrei anche dire che le date delle mie citazioni potrebbero non essere quelle che alcuni si aspetterebbero, dal momento che per alcune di queste c'erano versioni precedenti della conferenza.

Torna alla natura della tua domanda. Il valore chiave del 'rigore' qui era nel fornire la classe di ipotesi su cui si impara (maggioranze ponderate rispetto alla classe di ipotesi originale) e algoritmi efficienti per trovarli.


12

Questo esempio è sulla falsariga delle risposte di Dana e Scott.

ndd2n1d2n1/(d1)2n1/(d1)1n1/(d1)d12n1/(d1)2n1/(d1)d2O(n1/(d1))

dAC0


11

L'articolo di Rasborov e Rudich "Prove naturali" offre una prova rigorosa di (una formalizzazione di) l'affermazione dolorosamente ovvia "È davvero difficile provare che P ≠ NP".


2
"È davvero difficile dimostrare che P ≠ NP" non equivale a "prove naturali molto probabilmente non dimostreranno P ≠ NP". Vi sono altri ostacoli come la relativizzazione e l'algebrizzazione. In realtà, ci potrebbero essere infinitamente molte più barriere.
Mohammad Al-Turkistany,

7
La relativizzazione è solo "È difficile provare P ≠ NP". L'algebraizzazione è arrivata più tardi, ma è una formalizzazione di "È davvero molto difficile dimostrare P ≠ NP." (Ah ah solo sul serio.)
Jeffε

6

L'idea che alcuni problemi algoritmici richiedano un numero esponenziale di passaggi o una ricerca esaustiva su tutte le possibilità, è stata sollevata dagli anni '50 e forse prima. (Ovviamente, l'idea ingenua in competizione secondo cui i computer possono fare tutto era anche comune.) Il grande passo avanti di Cook e Levin è stato quello di mettere questa idea su basi rigorose. Questo, ovviamente, ha cambiato tutto.

Aggiornamento: mi sono appena reso conto che la mia risposta, come la bella risposta del Turkistany, si rivolge al titolo della domanda "rigore che porta all'intuizione", ma forse non alla formulazione specifica che parlava di "prova rigorosa di un teorema".


0

Alan Turing ha formalizzato la nozione di algoritmo (calcolabilità effettiva) usando le macchine Turing. Ha usato questo nuovo formalismo per dimostrare che il problema di Halting è indecidibile (vale a dire che il problema di Halting non può essere risolto da nessun algoritmo). Ciò ha portato a un lungo programma di ricerca che ha dimostrato l'impossibilità del decimo problema di Hilbert. Matiyasevich nel 1970 ha dimostrato che non esiste un algoritmo in grado di decidere se un'equazione diofantina intera ha una soluzione intera.


1
@Kaveh, che cos'è MRDP?
Mohammad Al-Turkistany,

1
Esistono insiemi enumerabili ricorsivamente enumerabili (RE) (come il problema Halting). Matiyasevich ha dimostrato che ogni set ricorsivamente enumerabile è Diophantine. Ciò implica immediatamente l'impossibilità del decimo problema di Hilbert.
Mohammad Al-Turkistany,

1
@Kaveh, Perché non hai sottoposto la prima risposta ai tuoi test "rigorosi"? Per quanto ne so, la prova naturale non è l'unica barriera che ci impedisce di provare P vs NP.
Mohammad Al-Turkistany,

1
PNPPNP

Penso che sia una bella risposta.
Gil Kalai,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.