Precisione = 1- tasso di errore del test


14

Mi scuso se questa è una domanda molto ovvia, ma ho letto vari post e non riesco a trovare una buona conferma. Nel caso della classificazione, l' accuratezza di un classificatore è = 1- tasso di errore del test ? Ottengo che la precisione è , ma la mia domanda è come sono esattamente la precisione e il tasso di errore del test. TP+TNP+N

Risposte:


5

In linea di principio sì, l' accuratezza è la frazione dei casi correttamente previsti, quindi 1-la frazione dei casi classificati erroneamente, ovvero l' errore (tasso). Entrambi i termini possono essere talvolta usati in un modo più vago, tuttavia, e riguardano diverse cose come errori / precisione bilanciati per classe o persino punteggio F o AUROC - è sempre meglio cercare / includere un chiarimento adeguato nel documento o rapporto.

Si noti inoltre che il tasso di errore del test implica un errore in un set di test, quindi è probabile l'accuratezza del set di 1 test e potrebbero esserci altre accuratezze in volo.


Sì, penso che il problema che stavo avendo sia che i termini siano usati vagamente e tu fai un buon punto sul fatto che deve essere riportato nel contesto della tua analisi. Grazie per il chiarimento!
micro_gnomics il

2

@mbq ha risposto:

"1-la frazione di casi classificati erroneamente, ovvero errore (tasso)"

Tuttavia, sembra sbagliato in quanto errata classificazione ed errore sono la stessa cosa. Vedi sotto (da http://www.dataschool.io/simple-guide-to-confusion-matrix-terminology/ ):

Precisione: nel complesso, con quale frequenza il classificatore è corretto? (TP + TN) / totale = (100 + 50) / 165 = 0.91

Tasso di classificazione errata: nel complesso, quanto spesso è sbagliato? (FP + FN) / totale = (10 + 5) / 165 = 0,09 equivalente a 1 meno precisione

noto anche come "Tasso di errore"

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.