Nell'apprendimento computazionale, il teorema della NFL afferma che non esiste uno studente universale. Per ogni algoritmo di apprendimento, esiste una distribuzione che fa sì che lo studente produca un'ipotesi con un errore grande, con alta probabilità (sebbene ci sia un'ipotesi di errore bassa). La conclusione è che per imparare, la classe di ipotesi o le distribuzioni devono essere limitate. Nel loro libro "Una teoria probabilistica del riconoscimento di schemi", Devroye et al dimostrano il seguente theroem per lo studente dei vicini più vicini a K:
Dove