Domande taggate «precision-recall»

I costi di spedizione sono un modo per misurare la pertinenza dell'insieme di istanze recuperate. La precisione è la percentuale di istanze corrette rispetto a tutte le istanze recuperate. Rilevanza è la% di istanze effettive recuperate. La media armonica di P&R è il punteggio di F1. I P&R vengono utilizzati nel data mining per valutare i classificatori.

3
ROC vs curve di precisione e richiamo
Comprendo le differenze formali tra loro, quello che voglio sapere è quando è più pertinente usare l'uno contro l'altro. Forniscono sempre informazioni complementari sulle prestazioni di un determinato sistema di classificazione / rilevamento? Quando è ragionevole fornire entrambi, per esempio, in un documento? invece di uno solo? Esistono descrittori alternativi …

3
Come si calcola la precisione e il richiamo per la classificazione multiclasse utilizzando la matrice di confusione?
Mi chiedo come calcolare la precisione e il richiamo usando una matrice di confusione per un problema di classificazione multi-classe. In particolare, un'osservazione può essere assegnata solo alla sua classe / etichetta più probabile. Vorrei calcolare: Precisione = TP / (TP + FP) Richiama = TP / (TP + FN) …


9
Come interpretare i valori di misura F?
Vorrei sapere come interpretare una differenza di valori di f-measure. So che la misura f è una media equilibrata tra precisione e richiamo, ma sto chiedendo il significato pratico di una differenza nelle misure F. Ad esempio, se un classificatore C1 ha un'accuratezza di 0,4 e un altro classificatore C2 …




1
F1 / Dice-Score vs IoU
Ero confuso sulle differenze tra il punteggio di F1, il punteggio dei dadi e l'IoU (intersezione sull'unione). Ormai ho scoperto che F1 e Dice significano la stessa cosa (giusto?) E IoU ha una formula molto simile alle altre due. F1 / Dadi: 2 TP2 TP+ FP+ FN2TP2TP+FP+FN\frac{2TP}{2TP+FP+FN} IoU / Jaccard: …

3
Metriche di classificazione / valutazione per dati altamente squilibrati
Mi occupo di un problema di rilevamento delle frodi (simile al credit scoring). Pertanto, esiste una relazione fortemente squilibrata tra osservazioni fraudolente e non fraudolente. http://blog.revolutionanalytics.com/2016/03/com_class_eval_metrics_r.html offre un'ottima panoramica delle diverse metriche di classificazione. Precision and Recallo kappaentrambi sembrano essere una buona scelta: Un modo per giustificare i risultati di …

4
Quali sono i valori corretti per precisione e richiamo nei casi limite?
La precisione è definita come: p = true positives / (true positives + false positives) È corretto che, come true positivese false positivesavvicinarsi a 0, la precisione si avvicina a 1? Stessa domanda da ricordare: r = true positives / (true positives + false negatives) Attualmente sto implementando un test …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 





4
L'accuratezza della macchina con incremento gradiente diminuisce all'aumentare del numero di iterazioni
Sto sperimentando l'algoritmo della macchina per aumentare il gradiente tramite il caretpacchetto in R. Utilizzando un piccolo set di dati di ammissione al college, ho eseguito il seguente codice: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.