L'articolo "Algorithms subquadratici per 3SUM", di Ilya Baran, Erik D. Demaine, Mihai Patrascu presenta la seguente complessità per
Problema 3SUM: dato un elenco di numeri interi se ci sono tali che
Essi affermano, "su una parola RAM di serie con parole bit, si ottiene un tempo di esecuzione di . Nel circuito RAM con una non standard AC0 operazione, otteniamo O (n ^ 2 / w ^ 2 \ log w) . In memoria esterna, otteniamo O (n ^ 2 / (MB)) , anche nell'ipotesi di serie di indivisibilità dei dati. Cache-inconsapevolmente, otteniamo un tempo di esecuzione di O (n ^ 2 / MB \ log M) . In tutti i casi, la nostra velocità è quasi quadratica nel "parallelismo" il modello può essere un ff ord, che potrebbe essere il migliore possibile Vedi il documento Baran, Demaine, Patrascu qui .
Recentemente, un articolo "Sesso a tre, degenerati e triangoli amorosi" di Grondlund e Pettie ha dimostrato che "la complessità dell'albero decisionale di 3SUM è e che esiste un algoritmo 3SUM randomizzato in esecuzione in e un algoritmo deterministico in esecuzione in ora.
Questi risultati confutano la versione più forte della congettura di 3SUM, vale a dire che la sua complessità dell'albero decisionale (e algoritmico) è . "
Vedi questo secondo documento qui .
Chiaramente, entrambi sono documenti importanti. Non essendo un esperto in questo settore, la mia domanda è su come confrontare l'impatto e il significato di entrambi, dati i diversi modelli di complessità. Anche qualsiasi altro commento approfondito su questo problema è il benvenuto. Ad esempio, il primo documento aveva già escluso il limite ?