Ho dati etichettati di 2 classi su cui sto eseguendo la classificazione utilizzando più classificatori. E i set di dati sono ben bilanciati. Nel valutare le prestazioni dei classificatori, devo prendere in considerazione l'accuratezza del classificatore nel determinare non solo i veri positivi, ma anche i veri negativi. Pertanto, se uso l'accuratezza e se il classificatore è orientato verso i positivi e classifica tutto come positivo, otterrò un'accuratezza del 50% circa, anche se non è riuscito a classificare i veri negativi. Questa proprietà è estesa alla precisione e al richiamo poiché si concentrano su una sola classe e, a loro volta, al punteggio di F1. (Questo è ciò che capisco anche da questo documento, ad esempio " Oltre l'accuratezza, il punteggio F e il ROC: una famiglia di misure discriminanti per la valutazione delle prestazioni ").
Pertanto, posso usare la sensibilità e la specificità (TPR e TNR) per vedere come si è comportato il classificatore per ogni classe, dove mirano a massimizzare questi valori.
La mia domanda è che sto cercando una misura che combini entrambi questi valori in una misura significativa . Ho esaminato le misure fornite in quel documento, ma l'ho trovato non banale. E in base alla mia comprensione, mi chiedevo perché non potessimo applicare qualcosa come il punteggio F, ma invece di usare la precisione e il richiamo avrei usato sensibilità e specificità? Quindi la formula sarebbe e il mio obiettivo sarebbe massimizzare questa misura. Trovo che sia molto rappresentativo. Esiste già una formula simile? E questo avrebbe senso o è matematicamente sano?