Domande taggate «accuracy»

La precisione di uno stimatore è il grado di vicinanza delle stime al valore reale. Per un classificatore, l'accuratezza è la proporzione di classificazioni corrette. (Questo secondo utilizzo non è una buona pratica. Vedi il tag wiki per un link ad ulteriori informazioni.)

7
Perché l'accuratezza non è la misura migliore per valutare i modelli di classificazione?
Questa è una domanda generale che è stata posta indirettamente più volte qui, ma manca di un'unica risposta autorevole. Sarebbe bello avere una risposta dettagliata a questo per il riferimento. La precisione , la proporzione di classificazioni corrette tra tutte le classificazioni, è una misura molto semplice e molto "intuitiva", …

6
Qual è il modo migliore per ricordare la differenza tra sensibilità, specificità, precisione, accuratezza e richiamo?
Nonostante abbia visto questi termini 502847894789 volte, non riesco a ricordare per la vita di me la differenza tra sensibilità, specificità, precisione, accuratezza e richiamo. Sono concetti piuttosto semplici, ma i nomi per me non sono molto intuitivi, quindi continuo a confonderli. Qual è un buon modo di pensare a …



1
Quali sono le carenze dell'errore di percentuale assoluta media (MAPE)?
L' errore percentuale assoluta media ( mape ) è una misura di precisione o di errore comune per serie temporali o altre previsioni, MAPE = 100nΣt = 1n| UNt- Ft|UNt% ,MAPE=100n∑t=1n|At−Ft|At%, \text{MAPE} = \frac{100}{n}\sum_{t=1}^n\frac{|A_t-F_t|}{A_t}\%, dove sono effettivi e previsioni o previsioni corrispondenti.F tUNtAtA_tFtFtF_t Il MAPE è una percentuale, quindi possiamo …
29 accuracy  mape 

5
Un modello troppo equipaggiato è necessariamente inutile?
Supponiamo che un modello abbia un'accuratezza del 100% sui dati di allenamento, ma un'accuratezza del 70% sui dati di test. È vero il seguente argomento su questo modello? È ovvio che questo è un modello troppo adatto. L'accuratezza del test può essere migliorata riducendo l'eccessivo adattamento. Tuttavia, questo modello può …

1
F1 / Dice-Score vs IoU
Ero confuso sulle differenze tra il punteggio di F1, il punteggio dei dadi e l'IoU (intersezione sull'unione). Ormai ho scoperto che F1 e Dice significano la stessa cosa (giusto?) E IoU ha una formula molto simile alle altre due. F1 / Dadi: 2 TP2 TP+ FP+ FN2TP2TP+FP+FN\frac{2TP}{2TP+FP+FN} IoU / Jaccard: …




2
Precisione rispetto all'area sotto la curva ROC
Ho costruito una curva ROC per un sistema diagnostico. L'area sotto la curva è stata quindi stimata in modo non parametrico come AUC = 0,89. Quando ho provato a calcolare la precisione con l'impostazione della soglia ottimale (il punto più vicino al punto (0, 1)), ho ottenuto che la precisione …

2
Buona precisione nonostante l'alto valore di perdita
Durante l'addestramento di un semplice classificatore binario di una rete neurale ottengo un alto valore di perdita, usando l'entropia incrociata. Nonostante ciò, il valore dell'accuratezza sul set di validazione è abbastanza buono. Ha qualche significato? Non esiste una stretta correlazione tra perdita e precisione? Ho sulla formazione e la convalida …

2
Se "Errore standard" e "Intervalli di confidenza" misurano la precisione della misurazione, quali sono le misurazioni della precisione?
Nel libro "Biostatistica per i manichini" a pagina 40 leggo: L'errore standard (abbreviato SE) è un modo per indicare la precisione della stima o della misurazione di qualcosa. e Gli intervalli di confidenza forniscono un altro modo per indicare la precisione di una stima o misurazione di qualcosa. Ma non …



Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.