Nella teoria degli algoritmi distribuiti, ci sono problemi con limiti inferiori, come , che sono "grandi" (intendo, più grandi di ) e non banali. Mi chiedo se ci sono problemi con limiti simili nella teoria dell'algoritmo seriale, intendo ordine molto maggiore di .
Con banale intendo "ottenuto solo considerando che dobbiamo leggere l'intero input" e similmente.