Ho un esempio che ho tratto dalla documentazione sklearn.metrics.classification_report di sklearn.
Quello che non capisco è perché ci sono valori di f1, precisione e valori di richiamo per ogni classe in cui credo che la classe sia l'etichetta predittore? Ho pensato che il punteggio f1 ti dicesse l'accuratezza complessiva del modello. Inoltre, cosa ci dice la colonna di supporto? Non sono riuscito a trovare informazioni al riguardo.
print(classification_report(y_true, y_pred, target_names=target_names))
precision recall f1-score support
class 0 0.50 1.00 0.67 1
class 1 0.00 0.00 0.00 1
class 2 1.00 0.67 0.80 3
avg / total 0.70 0.60 0.61 5
avg / total
? Non sembra corrispondere alla colonna significa ... Come viene calcolato e cosa significa?