Algoritmi a tempo polinomiale con esponente / costante enormi


59

Conosci algoritmi sensibili che vengono eseguiti in tempo polinomiale in (Lunghezza input + Lunghezza output), ma il cui tempo di esecuzione asintotico nella stessa misura ha un esponente / costante davvero enorme (almeno, dove il limite superiore provato sul tempo di esecuzione è in tale modo)?


3
Vedi mathoverflow.net/questions/65412 : "Il peggior algoritmo noto in termini di big-O o più precisamente big-Theta". Ho pubblicato una risposta lì.
Joseph O'Rourke,

4
C'è l'algoritmo LOGSPACE di Reingold per la connettività (vedi una domanda sulla sua complessità temporale ), ma dubitare che sia sensato nel senso che intendi qui ...
Janne H. Korhonen,

1
@Joseph ORourke: ho subito il foglio "rettangolo grasso" sulla mia scrivania!
Aaron Sterling,

3
Sebbene l' n42 fosse un calcolo legittimo (la programmazione dinamica lo pompa), l'ho incluso nella versione della conferenza come una sorta di scherzo , uno scherzo rimosso nella versione del diario.
Joseph O'Rourke,

9
Il riconoscimento dei grafici perfetti è in O(|V(sol)|9) e sembra che sia necessaria una svolta per migliorarlo.
András Salamon,

Risposte:


39

Gli algoritmi basati sul lemma della regolarità sono buoni esempi di algoritmi a tempo polinomiale con costanti terribili (sia nell'esponente che come coefficienti principali).

Il lemma della regolarità di Szemeredi ti dice che in qualsiasi grafico su vertici puoi dividere i vertici in insiemi in cui i bordi tra coppie di insiemi sono "pseudo-casuali" (cioè, le densità di sottoinsiemi sufficientemente grandi sembrano densità in un grafico casuale) . Questa è una struttura con cui è molto bello lavorare e, di conseguenza, ci sono algoritmi che usano la partizione. Il problema è che il numero di set nella partizione è una torre esponenziale nel parametro di pseudo-casualità (vedi qui: http://en.wikipedia.org/wiki/Szemer%C3%A9di_regularity_lemma ).n

Per alcuni collegamenti ad algoritmi che si basano sul lemma della regolarità, vedere ad esempio: http://www.cs.cmu.edu/~ryanw/regularity-journ.pdf


2
Buon punto! Tuttavia, non sono a conoscenza di un problema computazionale in cui esiste un limite inferiore corrispondente della torre di esponenziali. Gowers ha dimostrato un limite così basso per il lemma della regolarità stesso, ma non conosco un problema computazionale in cui si applica.
Arnab,

3
Credo che gli algoritmi di floccaggio descritti da Chazelle in questo articolo ( arxiv.org/abs/0905.4241 ) abbiano una convergenza ottimale (cioè hanno limiti inferiori) che è una torre di due
Suresh Venkat

In un recente articolo ( eccc.hpi-web.de/report/2014/018 ), mostro alcuni altri algoritmi che usano il lemma (aritmetico) della regolarità che ha enormi costanti nascoste dalla notazione O ().
Arnab,

55

Notizie dalla SODA 2013 : il problema della Max-Bisection è approssimativamente entro un fattore 0,8776 in circa .O(n10100)


54

Ecco due schermate di Un approccio guidato dall'energia al dispiegamento dei legami di Jason H. Cantarella, Erik D. Demaine, Hayley N. Iben, James F. O'Brien, SOCG 2004:

Corollario 1. Il numero di passaggi nel nostro algoritmo è al massimo $ 1752484608000 n ^ {79} L ^ {25} / D ^ {26} (\ Theta_0) $

Corollario 2. Il numero di passaggi nel nostro algoritmo è al massimo $ 117607251220365312000 n ^ {79} (\ ell _ {\ max} / d _ {\ min} (\ Theta_0)) ^ {26} $]


12
La costante è molto più impressionante della potenza di :)n
Suresh Venkat,

11
Questo è un algoritmo con esponente enorme E costante costante ...
Hsien-Chih Chang 張顯 之

5
Gli stessi limiti sono veri per Bubblesort.
Raffaello,

1
Quanto sono stretti questi limiti?
Max

34

Ecco un recente risultato del puzzle di foto 2012 di Erik D. Demaine, Martin L. Demaine, Yair N. Minsky, Joseph SB Mitchell, Ronald L. Rivest e Mihai Patrascu di FUN 2012 .

Mostriamo come appendere un'immagine avvolgendo la corda intorno a unghia, creando un numero polinomiale di colpi di scena, in modo tale che l'immagine cada ogni volta che viene rimosso un k di ogni chiodo e l'immagine rimane appesa quando vengono rimosse meno di k unghie.

Non lasciarti ingannare dal "numero polinomiale" ... risulta essere .O(n43737)


15
Cioè (!!)(618)#gates in una rete di smistamento AKS
Jeffε

23

Esiste una classe di problemi, le cui soluzioni sono difficili da calcolare, ma è facile approssimarli con precisione , nel senso che esistono algoritmi a tempo polinomiale che possono approssimare la soluzione entro per qualsiasi costante ε> 0. Tuttavia, c'è un problema: il tempo di esecuzione degli approssimatori può dipendere da 1 / ϵ piuttosto male, ad esempio essere O ( n 1 / ϵ ) .(1+ε)1/εO(n1/ε)

Vedi maggiori informazioni qui: http://en.wikipedia.org/wiki/Polynomial-time_approximation_scheme .


17

Sebbene il tempo di esecuzione di tali algoritmi sia stato successivamente migliorato, l'algoritmo originale per il campionamento di un punto da un corpo convesso aveva un tempo di esecuzione .O~(n19)

Dyer, Frieze e Kannan: http://portal.acm.org/citation.cfm?id=102783


16

Se è una logica tabale modale o superintuizionistica, i sistemi di prova Frege estesa e sostitutivi Frege per L sono polinomialmente equivalenti e polinomialmente interpretabili nell'EF classico (questo è il Teorema 5.10 in questo mio documento). L'esponente c delle simulazioni polinomiali non è esplicitamente dichiarato nel Teorema 5.10, ma la prova induttiva del teorema fornisce c = 2 O ( | F | ) , dove F è un frame Kripke finito che genera L , quindi può essere enorme come vuoi a seconda della logica. (Peggiora in Teorema 5.20.)LLcc=2O(|F|)FL


16

L'attuale algoritmo più noto per il riconoscimento di grafici cartografici (una generalizzazione di grafici planari) viene eseguito in . Thorup, grafici della mappa in tempo polinomiale.n120

Il calcolo dell'equilibrio del mercato Arrow-Debreu prende i calcoli del flusso massimo di , dove U è l'utilità massima. Duan, Mehlhorn, un algoritmo polinomiale combinatorio per il mercato lineare di Arrow-Debreu.O(n6log(nU))U


Ricevo un errore da IEEE quando seguo il tuo link, ma presumo che ti riferisca al documento FOCS'98 di Thorup "Grafici grafici in tempo polinomiale".
David Eppstein,

1
Voglio dire quella carta, e carica bene per me.
AdrianN,

funziona per me dall'U.
Suresh Venkat

12

Problema di transitorietà della sabbia

Considera il seguente processo. Prendi una piastrella spessa e lascia cadere particelle di sabbia su di essa un grano alla volta. Un cumulo si accumula gradualmente e quindi una grande porzione di sabbia scivola via dai bordi della piastrella. Se continuiamo ad aggiungere particelle di sabbia, dopo un certo periodo di tempo, la configurazione dell'heap si ripete. Successivamente, la configurazione diventa ricorrente, ovvero continua a rivisitare uno stato visto in precedenza.

Considera il seguente modello per il processo sopra. Modella la piastrella come una griglia . Le particelle di sabbia vengono fatte cadere sui vertici di questa griglia. Se il numero di particelle in corrispondenza di un vertice supera il suo grado, il vertice collassa e le particelle in esso contenute si spostano verso vertici adiacenti (in modo a cascata). Una particella di sabbia che raggiunge un vertice di confine scompare in un lavandino (`cade '). Questo è noto come il modello di sandpile abeliano .n×n

Problema: quanto tempo impiega la configurazione a diventare ricorrente in termini di , ipotizzando il peggior algoritmo per la caduta di particelle di sabbia?n

In SODA '07 , László Babai e Igor Gorodezky hanno dimostrato questa volta di essere polinomialmente limitati ma ..

inserisci qui la descrizione dell'immagine

In SODA '12 , Ayush Choure e Sundar Vishwanathan migliorarono questo vincolo con .O(n7)

Questa risposta avrebbe avuto un aspetto leggermente migliore se non per il loro miglioramento :)


11

Il problema del "cranio convesso" è quello di trovare il poligono convesso della massima area all'interno di un dato poligono semplice. L'algoritmo più veloce noto per questo problema viene eseguito nel tempo [Chang and Yap, DCG 1986].O(n7)







-3

O(2n)n(n1)(n2)(n3)O(nc)c(nc)cPNP

[1] Domande sulla rigidità della matrice informatica


2
Non sono sicuro di come sia diverso (ad esempio) dal tentativo di trovare una cricca massima enumerando tutti i set di dimensioni k, per aumentare k. ogni passaggio è anche p-time per k fisso.
Suresh Venkat,

sì, è molto simile e mi ricorda la congettura dell'isomorfismo di Hartmanis per i set NP. anche se la congettura dell'isomorfismo non è vera (l'attuale consenso / saggezza convenzionale sembra appoggiarsi ad esso), sembra che gli insiemi NP abbiano una proprietà simile ma forse un po 'più debole, il che sembra richiedere una ricerca esaustiva
vzn

-4

cO(nc)(nc)PNP


2
1. esiste un algoritmo (semplice) che migliora leggermente l'esponente. 2. questa è un'affermazione molto più forte di P non uguale a NP, così come ETH è più forte di P non uguale a NP. Penso che algoritmi come questo non siano stati evidenziati perché sembra che l'OP non sia interessato a un tipo di algoritmo di ricerca esaustivo.
Sasho Nikolov,

5
cncO(c)

5
K>2 K2SKnSK>0

6
K2KnKK2O(K)n

5
2O(n)2O(n)
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.