Ho cercato in alto e in basso e non sono stato in grado di scoprire che cosa significhi o significhi l'AUC, come in relazione alla previsione.
Ho cercato in alto e in basso e non sono stato in grado di scoprire che cosa significhi o significhi l'AUC, come in relazione alla previsione.
Risposte:
AUC è usato la maggior parte del tempo per indicare AUROC, che è una cattiva pratica poiché, come ha sottolineato Marc Claesen, AUC è ambiguo (potrebbe essere qualsiasi curva) mentre AUROC non lo è.
L'AUROC ha diverse interpretazioni equivalenti :
Andare oltre: come derivare l'interpretazione probabilistica dell'AUROC?
Supponiamo di avere un classificatore binario probabilistico come la regressione logistica.
Prima di presentare la curva ROC (= curva caratteristica operativa del ricevitore), è necessario comprendere il concetto di matrice di confusione . Quando facciamo una previsione binaria, possono esserci 4 tipi di risultati:
Per ottenere la matrice di confusione, esaminiamo tutte le previsioni fatte dal modello e contiamo quante volte si verificano ciascuno di quei 4 tipi di risultati:
In questo esempio di matrice di confusione, tra i 50 punti dati classificati, 45 sono correttamente classificati e 5 sono classificati erroneamente.
Dal momento che per confrontare due diversi modelli è spesso più conveniente avere un'unica metrica anziché più di una, calcoliamo due metriche dalla matrice di confusione, che in seguito combineremo in una sola:
La seguente figura mostra graficamente AUROC:
In questa figura, l'area blu corrisponde all'Area sotto la curva della caratteristica operativa del ricevitore (AUROC). La linea tratteggiata nella diagonale presentiamo la curva ROC di un predittore casuale: ha un AUROC di 0,5. Il predittore casuale è comunemente usato come base per vedere se il modello è utile.
Se vuoi fare un'esperienza di prima mano:
Anche se sono un po 'in ritardo alla festa, ma ecco i miei 5 centesimi. @FranckDernoncourt (+1) ha già menzionato possibili interpretazioni di AUC ROC, e la mia preferita è la prima della sua lista (io uso una formulazione diversa, ma è la stessa):
Considera questo esempio (auc = 0.68):
Proviamo a simularlo: tracciamo esempi casuali positivi e negativi e quindi calcoliamo la percentuale di casi in cui i positivi hanno un punteggio maggiore rispetto ai negativi
cls = c('P', 'P', 'N', 'P', 'P', 'P', 'N', 'N', 'P', 'N', 'P',
'N', 'P', 'N', 'N', 'N', 'P', 'N', 'P', 'N')
score = c(0.9, 0.8, 0.7, 0.6, 0.55, 0.51, 0.49, 0.43, 0.42, 0.39, 0.33,
0.31, 0.23, 0.22, 0.19, 0.15, 0.12, 0.11, 0.04, 0.01)
pos = score[cls == 'P']
neg = score[cls == 'N']
set.seed(14)
p = replicate(50000, sample(pos, size=1) > sample(neg, size=1))
mean(p)
E otteniamo 0,67926. Abbastanza vicino, vero?
A proposito, in RI di solito si usa il pacchetto ROCR per disegnare curve ROC e calcolare l'AUC.
library('ROCR')
pred = prediction(score, cls)
roc = performance(pred, "tpr", "fpr")
plot(roc, lwd=2, colorize=TRUE)
lines(x=c(0, 1), y=c(0, 1), col="black", lwd=1)
auc = performance(pred, "auc")
auc = unlist(auc@y.values)
auc
Considerazioni importanti non sono incluse in nessuna di queste discussioni. Le procedure sopra discusse invitano a soglie inadeguate e utilizzano regole (proporzioni) di punteggio di precisione impropria che vengono ottimizzate scegliendo le caratteristiche sbagliate e dando loro i pesi sbagliati.
La dicotomizzazione delle previsioni continue vola di fronte alla teoria delle decisioni ottimale. Le curve ROC non forniscono approfondimenti fruibili. Sono diventati obbligatori senza che i ricercatori abbiano esaminato i benefici. Hanno un inchiostro molto grande: rapporto di informazione.
Le decisioni ottimali non considerano "positivi" e "negativi" ma piuttosto la probabilità stimata del risultato. La funzione di utilità / costo / perdita, che non ha alcun ruolo nella costruzione del ROC, quindi l'inutilità dei ROC, viene utilizzata per tradurre la stima del rischio nella decisione ottimale (ad esempio, la perdita minima prevista).
L'obiettivo di un modello statistico è spesso quello di fare una previsione e l'analista dovrebbe spesso fermarsi lì perché l'analista potrebbe non conoscere la funzione di perdita. I componenti chiave della previsione per convalidare unbiasedly (ad esempio, utilizzando il bootstrap) sono la discriminazione predittiva (una semi-buon modo per misurare questo è la probabilità concordanza che risulta uguale l'area sotto la ROC, ma può essere più facilmente compresa se si don 't disegnare il ROC) e la curva di calibrazione. La convalida della calibrazione è davvero molto necessaria se si utilizzano previsioni su una scala assoluta.
Vedere il capitolo Perdita di informazioni in Biostatistica per la ricerca biomedica e altri capitoli per ulteriori informazioni.
L'AUC è un'abbreviazione per l' area sotto la curva . Viene utilizzato nell'analisi della classificazione per determinare quale dei modelli utilizzati predice meglio le classi.
Un esempio della sua applicazione sono le curve ROC. Qui, i tassi positivi reali vengono tracciati rispetto ai tassi falsi positivi. Un esempio è sotto. Più l'AUC di un modello si avvicina a 1, meglio è. Quindi i modelli con AUC più alti sono preferiti a quelli con AUC più bassi.
Si noti che esistono anche altri metodi oltre alle curve ROC, ma sono anche correlati ai tassi di positività positivi e falsi positivi, ad esempio curve di richiamo di precisione, punteggio F1 o Lorenz.
auc
tag che hai usato: stats.stackexchange.com/questions/tagged/auc