Precisione bilanciata rispetto al punteggio F-1


14

Mi chiedevo se qualcuno potesse spiegare la differenza tra precisione bilanciata che è

b_acc = (sensitivity + specificity)/2

e punteggio f1 che è:

f1 = 2*precision*recall/(precision + recall) 

Risposte:


19

Matematicamente, b_acc è la media aritmetica di remind_P e remind_N e f1 è la media armonica di remind_P e precision_P.

Sia F1 che b_acc sono metriche per la valutazione del classificatore, che (in una certa misura) gestiscono lo squilibrio di classe. A seconda di quale delle due classi (N o P) è più numerosa dell'altra, ciascuna metrica è migliore dell'altra.

1) Se N >> P, f1 è migliore.

2) Se P >> N, b_acc è migliore.

Chiaramente, se è possibile cambiare etichetta, entrambe le metriche possono essere utilizzate in uno dei due casi di squilibrio sopra indicati. In caso contrario, a seconda dello squilibrio nei dati di allenamento, è possibile selezionare la metrica appropriata.


1
Grazie signore, avete un riferimento per le informazioni relative alla scelta della precisione Fscore vs bilanciata in termini di numero di classi positive / negative?
gin

Vorrei secondare la richiesta di @ gin per maggiori informazioni su come scegliere tra i due. Ho alcuni dati in cui la N è circa l'8%. Per risposta sopra, sembra che dovrei usare la precisione bilanciata. Ho cercato altri riferimenti su questa scelta (P> N -> b_acc) ma non ho visto nulla.
anguyen1210

Questo non ha alcun senso per me. L'accuratezza bilanciata è invariante rispetto alla commutazione delle etichette. Come puoi "migliorarlo" cambiando etichetta se rimarrà invariato?
TC Proctor,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.