Secondo la legge (debole / forte) di grandi numeri, dati alcuni punti campione iid di una distribuzione, la loro media campionaria f ∗ ( { x i , i = 1 , ... , N } ) : = 1converge alla media di distribuzione sia in probabilità che come, poiché la dimensione del campioneN va all'infinito.
Quando la dimensione del campione è fissa, mi chiedo se lo stimatore LLN f ∗ sia uno stimatore migliore in un certo senso? Per esempio,
- la sua aspettativa è la media di distribuzione, quindi è uno stimatore imparziale. La sua varianza è doveσ2è la varianza di distribuzione. Ma è UMVU?
c'è qualche funzione tale che f ∗ ( { x i , i = 1 , ... , N } ) risolva il problema di minimizzazione: f ∗ ( { x i , i = 1 , … , N } ) = argmin u ∈ R n
In altre parole, è la migliore funzione di contrasto l 0 nel quadro del contrasto minimo (cfr. Sezione 2.1 "Euristica di base della stima" in " Statistiche matematiche: idee di base e argomenti selezionati, Volume 1 " di Bickle e Doksum).
Ad esempio, se la distribuzione è nota / limitata dalla famiglia di distribuzioni gaussiane, allora la media del campione sarà lo stimatore MLE della media di distribuzione e MLE appartiene al framework di contrasto minimo e la sua funzione di contrasto è meno il log funzione di verosimiglianza.
Si noti che quanto sopra sono tre diverse interpretazioni per una "migliore" stima che ho conosciuto finora. Se sei a conoscenza di altre possibili interpretazioni che potrebbero applicarsi allo stimatore LLN, non esitare a menzionarlo.