Il pool di metriche di errore che è possibile scegliere è diverso tra classificazione e regressione. In quest'ultimo caso si tenta di prevedere un valore continuo e con la classificazione si prevedono classi discrete come "salutare" o "non salutare". Dagli esempi che hai citato, l'errore quadratico medio radice sarebbe applicabile per la regressione e AUC per la classificazione con due classi.
Lascia che ti dia un po 'più di dettagli sulla classificazione. Hai menzionato l'AUC come misura, che è l'area sotto la curva ROC, che di solito viene applicato solo ai problemi di classificazione binaria con due classi. Sebbene esistano modi per costruire una curva ROC per più di due classi, perdono la semplicità della curva ROC per due classi. Inoltre, le curve ROC possono essere costruite solo se il classificatore di scelta produce un qualche tipo di punteggio associato a ciascuna previsione. Ad esempio, la regressione logistica ti darà le probabilità per ciascuna delle due classi. Oltre alla loro semplicità, le curve ROC hanno il vantaggio di non essere influenzate dal rapporto tra istanze etichettate positivamente e negativamente nei set di dati e non ti costringono a scegliere una soglia. Tuttavia, si consiglia di guardare non solo la curva ROC, ma anche altre visualizzazioni. Consiglierei di dare un'occhiata alle curve di richiamo di precisione e alle curve di costo.una vera misurazione dell'errore, hanno tutti la loro forza e debolezza.
La letteratura che ho trovato utile a questo proposito sono:
- Fawcett, T. (2006). Un'introduzione all'analisi ROC . Pattern Recognition Letters, 27 (8), 861–874.
- Drummond, C., & Holte, R. (2006). Curve di costo: un metodo migliorato per visualizzare le prestazioni del classificatore . Apprendimento automatico, 65 (1), 95–130
- Parker, C. (2011). Un'analisi delle misure di prestazione per i classificatori binari . 2011 IEEE 11th International Conference on Data Mining (pagg. 517-526)
- Davis, J., & Goadrich, M. (2006). La relazione tra le curve Precision-Recall e ROC . Atti della 23a conferenza internazionale sull'apprendimento automatico (pagg. 233–240). New York, New York, Stati Uniti: ACM
Se il tuo classificatore non fornisce alcun tipo di punteggio, devi ricorrere alle misure di base che possono essere ottenute da una matrice di confusione contenente il numero di veri positivi, falsi positivi, veri negativi e falsi negativi. Le visualizzazioni sopra menzionate (ROC, richiamo di precisione, curva dei costi) sono tutte basate su queste tabelle ottenute utilizzando una soglia diversa del punteggio del classificatore. La misura più popolare in questo caso è probabilmente la misura F1. Inoltre, esiste un lungo elenco di misure che è possibile recuperare da una matrice di confusione: sensibilità, specificità, valore predittivo positivo, valore predittivo negativo, precisione, coefficiente di correlazione di Matthews, ... Simile alle curve ROC, le matrici di confusione sono molto facili da capire in il problema di classificazione binaria, ma diventa più complicato con più classi, perché per le classi devi considerare una singola tabella N × N o N 2 × 2 ciascuna confrontando una delle classi ( A ) con tutte le altre classi ( non A ).NN× NN 2 × 2UNUN