Gli algoritmi di approssimazione sono solo per problemi di ottimizzazione, non per problemi di decisione.
Perché non definiamo il rapporto di approssimazione come la frazione di errori commessa da un algoritmo quando si cerca di risolvere qualche problema decisionale? Perché "il rapporto di approssimazione" è un termine con un significato ben definito e standard, uno che significa qualcos'altro, e sarebbe confuso usare lo stesso termine per due cose diverse.
OK, potremmo definire qualche altro rapporto (chiamiamolo qualcos'altro, ad esempio "det-ratio") che quantifica il numero di errori che un algoritmo commette, per qualche problema decisionale? Bene, non è chiaro come farlo. Quale sarebbe il denominatore per quella frazione? Oppure, per dirla in un altro modo: ci sarà un numero infinito di istanze problematiche, e per alcune di esse l'algoritmo darà la risposta giusta e altre darà la risposta sbagliata, quindi finirai con un rapporto che è "qualcosa diviso per l'infinito", e che finisce per essere insignificante o non definito.
In alternativa, potremmo definire come la frazione di errori degli errori dell'algoritmo, su istanze problematiche di dimensione n . Quindi, potremmo calcolare il limite di r n come n → ∞ , se esiste un tale limite. Questo sarebbernnrnn → ∞essere ben definito (se esiste il limite). Tuttavia, nella maggior parte dei casi, questo potrebbe non essere terribilmente utile. In particolare, assume implicitamente una distribuzione uniforme sulle istanze problematiche. Tuttavia, nel mondo reale, l'effettiva distribuzione sulle istanze problematiche potrebbe non essere uniforme - è spesso molto lontana dall'uniforme. Di conseguenza, il numero che ottieni in questo modo spesso non è così utile come potresti sperare: spesso dà un'impressione fuorviante di quanto sia buono l'algoritmo.
Per saperne di più su come le persone affrontano l'intrattabilità (durezza NP), dai un'occhiata a Come trattare l' intrattabilità: problemi NP-completi .