Il punteggio F1 è la media armonica di precisione e richiamo. L'asse y di richiamo è il vero tasso positivo (che è anche richiamo). Quindi, a volte i classificatori possono avere un basso richiamo ma una AUC molto alta, cosa significa? Quali sono le differenze tra AUC e punteggio F1?
La competizione di Kaggle La previsione del pilota sicuro di Porto Seguro utilizza il punteggio Gini normalizzato come metrica di valutazione e questo mi ha incuriosito sulle ragioni di questa scelta. Quali sono i vantaggi dell'utilizzo del punteggio gini normalizzato anziché delle metriche più comuni, come l'AUC, per la valutazione?
Ho un set di test di 100 casi e due classificatori. Ho generato previsioni e calcolato AUC ROC, sensibilità e specificità per entrambi i classificatori. Domanda 1: Come posso calcolare il valore p per verificare se uno è significativamente migliore dell'altro rispetto a tutti i punteggi (ROC AUC, sensibilità, specificità)? …
Perché l'area sotto la curva ROC ha la probabilità che un classificatore classifichi un'istanza "positiva" scelta casualmente (dalle previsioni recuperate) più alta di un'istanza "positiva" scelta casualmente (dalla classe positiva originale)? Come si può dimostrare matematicamente questa affermazione usando l'integrale, dando ai CDF e ai PDF le vere distribuzioni di …
Dato un set di dati con risultati binari e una matrice predittiva , il modello di regressione logistica standard stima i coefficienti che massimizzano la probabilità binomiale. Quando X è al livello completo \ beta_ {MLE} è unico; quando la separazione perfetta non è presente, è finita.y∈{0,1}ny∈{0,1}ny\in\{0,1\}^nX∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p}βMLEβMLE\beta_{MLE}XXXβMLEβMLE\beta_{MLE} Questo modello …
Una misura comune utilizzata per confrontare due o più modelli di classificazione è utilizzare l'area sotto la curva ROC (AUC) come modo per valutare indirettamente le loro prestazioni. In questo caso, un modello con una AUC più grande viene generalmente interpretato come performante di un modello con una AUC più …
Quando valutiamo la qualità di una foresta casuale, ad esempio utilizzando AUC, è più appropriato calcolare queste quantità sui campioni out of bag o sul set di validazione incrociata? Ho sentito che il calcolo su campioni OOB fornisce una valutazione più pessimistica, ma non vedo perché.
Nell'apprendimento automatico possiamo usare l' area sotto la curva ROC (spesso abbreviata AUC o AUROC) per riassumere quanto bene un sistema può discriminare tra due categorie. Nella teoria del rilevamento del segnale spesso il (indice di sensibilità) viene utilizzato per uno scopo simile. I due sono strettamente collegati e credo …
Mi imbatto nel coefficiente Dice per la somiglianza del volume ( https://en.wikipedia.org/wiki/S%C3%B8rensen%E2%80%93Dice_coefficient ) e la precisione ( https://en.wikipedia.org/wiki/Accuracy_and_precision ). Mi sembra che queste due misure siano uguali. qualche idea?
Ho adattato il mio modello e sto cercando di capire se va bene. Ho calcolato le metriche consigliate per valutarle ( / AUC / accuratezza / errore di previsione / ecc.) Ma non so come interpretarle. In breve, come faccio a sapere se il mio modello è buono in base …
Sto eseguendo un'attività di classificazione binaria in cui la probabilità di risultato è abbastanza bassa (intorno al 3%). Sto cercando di decidere se ottimizzare tramite AUC o perdita di log. Per quanto ho capito, l'AUC massimizza la capacità del modello di discriminare tra le classi mentre il logloss penalizza la …
Ho un problema di classificazione binaria e provo diversi classificatori su di esso: voglio confrontare i classificatori. quale è una misura migliore AUC o precisione? E perché? Raondom Forest: AUC: 0.828 Accuracy: 79.6667 % SVM: AUC: 0.542 Accuracy: 85.6667 %
Il mgcvpacchetto per Rha due funzioni per adattare le interazioni del prodotto tensore: te()e ti(). Comprendo la divisione di base del lavoro tra i due (adattamento di un'interazione non lineare rispetto alla scomposizione di questa interazione in effetti principali e un'interazione). Quello che non capisco è perché te(x1, x2)e ti(x1) …
Poiché ho un set di dati molto sbilanciato (esiti positivi del 9%), ho deciso che una curva di richiamo di precisione era più appropriata di una curva ROC. Ho ottenuto l'analoga misura sommaria dell'area sotto la curva PR (.49, se sei interessato) ma non sono sicuro di come interpretarla. Ho …
Ho un GLMM del modulo: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Quando uso drop1(model, test="Chi"), ottengo risultati diversi rispetto a quelli che utilizzo Anova(model, type="III")dal pacchetto auto o summary(model). Questi ultimi due danno le stesse risposte. Usando un mucchio di dati fabbricati, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.