La discrepanza non è necessariamente particolarmente importante da sola.
A parte un insieme molto limitato di circostanze, gli stimatori più utili sono distorti, tuttavia sono ottenuti.
Se due stimatori hanno la stessa varianza, si può facilmente montare un argomento per preferire uno imparziale a uno distorto, ma è una situazione insolita in cui trovarsi (cioè, si può ragionevolmente preferire l'imparzialità, ceteris paribus - ma quei fastidiosi ceteris non sono quasi mai paribus ).
Più in genere, se vuoi l'imparzialità, aggiungerai qualche varianza per ottenerlo, e quindi la domanda sarebbe perché dovresti farlo ?
Distorsione è la misura in cui il valore atteso del mio stimatore sarà in media troppo alto (con una propensione negativa che indica troppo bassa).
Quando sto prendendo in considerazione un piccolo stimatore del campione, non mi interessa davvero. Di solito sono più interessato a quanto sbagliato sarà il mio stimatore in questo caso - la mia distanza tipica da destra ... qualcosa come un errore radice-quadrata-media o un errore assoluto medio avrebbe più senso.
Quindi, se ti piacciono la bassa varianza e il basso bias, chiedere senso uno stimatore di errore quadratico medio minimo avrebbe senso; questi sono molto raramente imparziali.
Bias e imparzialità sono una nozione utile di cui essere consapevoli, ma non è una proprietà particolarmente utile da cercare a meno che non si stiano solo confrontando gli stimatori con la stessa varianza.
Gli stimatori ML tendono ad essere a bassa varianza; di solito non sono un MSE minimo, ma spesso hanno un MSE inferiore rispetto a modificarli in modo imparziale (quando puoi farlo) ti darebbe.
Ad esempio, considera la stima della varianza durante il campionamento da una distribuzione normale (in effetti l'MMSE per la varianza ha sempre un denominatore più grande di ). n-1σ^2MMSE= S2n + 1, σ^2MLE= S2n, σ^2Unb= S2n - 1n - 1