Per molti problemi, l'algoritmo con la migliore complessità asintotica ha un fattore costante molto grande che è nascosto dalla notazione O grande. Ciò si verifica nella moltiplicazione delle matrici, nella moltiplicazione dei numeri interi (in particolare, il recente algoritmo di moltiplicazione dei numeri interi O (n log n) di Harvey e van der Hoeven), nelle reti di ordinamento a bassa profondità e nella ricerca di grafici minori, per farne alcuni. Tali algoritmi sono talvolta chiamati algoritmi galattici.
Si noti che per altri algoritmi, come l'ordinamento generale e l'aggiunta di numeri interi, sono noti algoritmi con complessità asintotica ottimale e piccoli fattori costanti.
Quale ricerca è stata fatta nel separare i primi algoritmi dai secondi algoritmi, da una prospettiva teorica?
Sono consapevole che le costanti nascoste sono spesso omesse per nascondere la distinzione tra diversi modelli di calcolo. Tuttavia, sono fiducioso che in un'ampia varietà di modelli diversi, questi algoritmi galattici saranno più lenti degli algoritmi asintoticamente peggiori per input di dimensioni di un miliardo, per esempio. La distinzione non è sottile, in alcuni casi. È stato reso rigoroso?
Ad esempio, si potrebbe inventare un modello di calcolo molto semplice, come una macchina von Neumann con un ISA molto semplice, e quindi implementare gli algoritmi e limitare i loro tempi di esecuzione con costanti esplicite. È stato fatto per una varietà di algoritmi?