Mentre è probabile che le due misure statistiche siano correlate, misurano diverse qualità del classificatore.
AUROC
L'area sotto la curva (AUC) è uguale alla probabilità che un classificatore classifichi un'istanza positiva scelta casualmente più alta di un esempio negativo scelto casualmente. Misura l'abilità dei classificatori nel classificare un insieme di modelli in base al grado in cui appartengono alla classe positiva, ma senza assegnare effettivamente i modelli alle classi.
L'accuratezza complessiva dipende anche dalla capacità del classificatore di classificare gli schemi, ma anche dalla sua capacità di selezionare una soglia nella classifica utilizzata per assegnare gli schemi alla classe positiva se al di sopra della soglia e alla classe negativa se al di sotto.
Pertanto, il classificatore con la statistica AUROC più elevata (a parità di condizioni) avrà probabilmente anche un'accuratezza complessiva più elevata poiché la classificazione dei modelli (misurata da AUROC) è vantaggiosa sia per AUROC sia per l'accuratezza complessiva. Tuttavia, se un classificatore classifica bene i modelli, ma seleziona male la soglia, può avere un AUROC alto ma una scarsa precisione complessiva.
Uso pratico
In pratica, mi piace raccogliere l'accuratezza complessiva, l'AUROC e se il classificatore stima la probabilità di appartenenza alla classe, l'entropia incrociata o le informazioni predittive. Quindi ho una metrica che misura la sua capacità grezza di eseguire una dura classificazione (supponendo che i costi di errata classificazione di falso positivo e falso negativo siano uguali e le frequenze di classe nel campione siano le stesse di quelle in uso operativo - un grande presupposto!), una metrica che misura la capacità di classificare i modelli e una metrica che misura quanto la classificazione viene calibrata come una probabilità.
Per molte attività, i costi di classificazione errata operativa sono sconosciuti o variabili oppure le frequenze delle classi operative sono diverse da quelle nel campione di addestramento o sono variabili. In tal caso, l'accuratezza complessiva è spesso abbastanza insignificante e l'AUROC è un indicatore migliore delle prestazioni e idealmente desideriamo un classificatore che fornisca probabilità ben calibrate, in modo da poter compensare questi problemi nell'uso operativo. Fondamentalmente quale metrica è importante dipende dal problema che stiamo cercando di risolvere.