Se avete due stimatori concorrenti θ 1 e θ 2 , anche M S E ( θ 1 ) < M S E ( θ 2 ) vi dice che θ 1 è lo stimatore migliore dipende interamente dalla vostra definizione di "migliore". Ad esempio, se si confrontano stimatori e "migliore" vuoi dire ha varianza minore, allora, sì, questo implicherebbe che θ 1 è meglio. M S Eθ^1θ^2
M S E ( θ^1) < M S E ( θ^2)
θ^1θ^1M S Eè un criterio popolare a causa della sua connessione con i minimi quadrati e la verosimiglianza gaussiana ma, come molti criteri statistici, si dovrebbe essere avvertiti dall'utilizzare ciecamente
come misura della qualità dello stimatore senza prestare attenzione all'applicazione.
M S E
Ci sono alcune situazioni in cui la scelta di uno stimatore per minimizzare potrebbe non essere una cosa particolarmente sensata da fare. Mi vengono in mente due scenari:M S E
Se in un set di dati ci sono valori anomali molto grandi, questi possono influenzare drasticamente l'MSE e quindi lo stimatore che minimizza l'MSE può essere indebitamente influenzato da tali valori anomali. In tali situazioni, il fatto che uno stimatore minimizzi l'MSE non ti dice molto poiché, se hai rimosso i valori anomali, puoi ottenere una stima molto diversa. In tal senso, l'MSE non è "robusto" per gli outlier. Nel contesto della regressione, questo fatto è ciò che ha motivato lo stimatore M Huber (che discuterò in questa risposta), che minimizza una diversa funzione di criterio (che è una miscela tra errore al quadrato ed errore assoluto) quando ci sono errori a coda lunga .
M S Eσ2M S Eσ4M S Eσ4
M S E
X1,...,Xntν>2ν/(ν−2)
θ^1:the unbiased sample variance
θ^2=0, regardless of the data
MSE(θ^2)=ν2(ν−2)2MSE(θ^1)={∞ν2(ν−2)2(2n−1+6n(ν−4))if ν≤4if ν>4.
tMSEν<4(2n−1+6n(ν−4))>1tθ^2MSEθ^1
MSEMSEθ^
S(θ^)=θ^ν/(ν−2)−1−log(θ^ν/(ν−2))
S(θ^1)=∞