L'analisi dei casi peggiori e dei casi medi sono misure ben note per la complessità di un algoritmo. L'analisi recentemente lisciata è emersa come un altro paradigma per spiegare perché alcuni algoritmi che sono esponenziali nel caso peggiore funzionano così bene nella pratica, ad esempio l'algoritmo simplex.
La mia domanda è: ci sono altri paradigmi per misurare la complessità di un algoritmo? Sono particolarmente interessato a quelli che tentano di spiegare perché alcuni algoritmi che presentano una complessità nel peggiore dei casi funzionano bene nella pratica.