Esistono un paio di regole di punteggio corrette e strettamente appropriate per i dati di conteggio che è possibile utilizzare. Le regole di punteggio sono penalità introdotte con P come distribuzione predittiva e y come valore osservato. Hanno un certo numero di proprietà desiderabili, in primo luogo che una previsione più vicina alla probabilità reale riceverà sempre meno penalità e che ci sia una previsione (unica) migliore e che è quando la probabilità prevista coincide con la probabilità reale. Ridurre al minimo le aspettative di s ( y , P ) significa riportare le vere probabilità. Vedi anche Wikipedia .s ( y, P)Pys ( y, P)
Spesso si prende una media di quelli su tutti i valori previsti come
S= 1nΣni = 1s ( y( i ), P( i ))
Quale regola prendere dipende dal tuo obiettivo, ma darò una caratterizzazione approssimativa quando ognuno è buono per essere usato.
In quanto segue uso per la funzione di massa di probabilità predittiva Pr ( Y = y ) e F ( y ) la funzione di distribuzione cumulativa predittiva. A ∑ k corre su tutto il supporto della distribuzione count (cioè 0 , 1 , ... , ∞ ). I denota la funzione di indicatore. μ e σ sono la deviazione media e standard della distribuzione predittiva (che di solito sono quantità stimate direttamente nei modelli di dati di conteggio). f( y)Pr ( Y= y)F( y)ΣK0 , 1 , ... , ∞ioμσ
Regole di punteggio rigorosamente appropriate
- Brier Score : (stabile per squilibrio dimensionale nei predittori categorici)s (y,P) = - 2 f(y) + ∑Kf2( k )
- Punteggio Dawid-Sebastiani : (buono per la scelta generale del modello predittivo; stabile per lo squilibrio dimensionale nei predittori categorici)s (y,P) = ( y- μσ)2+ 2 logσ
- Punteggio di devianza : ( g y è un termine di normalizzazione che dipende solo da y , nei modelli di Poisson è solitamente considerato come deviazione saturata; buono per l'uso con le stime da un framework ML)s(y,P)=−2logf(y)+gygyy
- Punteggio logaritmico : (calcolato molto facilmente; stabile per squilibrio dimensionale nei predittori categorici)s(y,P)=−logf(y)
- Punteggio di probabilità classificato : (buono per contrastare diverse previsioni di conteggi molto alti; suscettibile allo squilibrio dimensionale nei predittori categorici)s(y,P)=∑k{F(k)−I(y≤k)}2
- Punteggio sferico : (stabile per squilibrio dimensioni in predittori categoriali)s(y,P)=f(y)∑kf2(k)√
Altre regole di punteggio (non così appropriate ma spesso utilizzate)
- Punteggio di errore assoluto : (non corretto)s ( y, P) = | y- μ |
- Punteggio di errore quadrato : (non strettamente appropriato; sensibile agli outlier; sensibile allo squilibrio dimensionale nei predittori categorici)s ( y, P) = ( y- μ )2
- Punteggio di errore quadrato normalizzato di Pearson : s ( y, P) = ( y- μσ)2
Esempio di codice R per le regole strettamente appropriate:
library(vcdExtra)
m1 <- glm(Freq ~ mental, family=poisson, data=Mental)
# scores for the first observation
mu <- predict(m1, type="response")[1]
x <- Mental$Freq[1]
# logarithmic (equivalent to deviance score up to a constant)
-log(dpois(x, lambda=mu))
# quadratic (brier)
-2*dpois(x,lambda=mu) + sapply(mu, function(x){ sum(dpois(1:1000,lambda=x)^2) })
# spherical
- dpois(x,mu) / sqrt(sapply(mu, function(x){ sum(dpois(1:1000,lambda=x)^2) }))
# ranked probability score
sum(ppois((-1):(x-1), mu)^2) + sum((ppois(x:10000,mu)-1)^2)
# Dawid Sebastiani
(x-mu)^2/mu + log(mu)