lo stimatore ML determina il valore per il parametro che è più probabile che si verifichi nel set di dati.
Date le ipotesi, lo stimatore ML è il valore del parametro che ha le migliori possibilità di produrre il set di dati.
Non riesco a capire intuitivamente uno stimatore ML distorto, nel senso che "Come può il valore più probabile per il parametro prevedere il valore reale del parametro con una propensione verso un valore sbagliato?"
La distorsione riguarda le aspettative di distribuzioni campionarie. "Molto probabilmente per produrre i dati" non riguarda le aspettative delle distribuzioni di campionamento. Perché dovrebbero aspettarsi di andare insieme?
Qual è la base su cui è sorprendente che non corrispondano necessariamente?
Ti suggerirei di prendere in considerazione alcuni semplici casi di MLE e di riflettere su come si presenta la differenza in quei casi particolari.
Ad esempio, considera le osservazioni su un'uniforme su . L'osservazione più grande non è (necessariamente) non più grande del parametro, quindi il parametro può assumere valori almeno grandi quanto l'osservazione più grande.( 0 , θ )
Quando consideri la probabilità di , è (ovviamente) più grande quanto più si avvicina alla più grande osservazione. Quindi è massimizzato alla più grande osservazione; questa è chiaramente la stima per che massimizza la possibilità di ottenere il campione ottenuto:θθθ
D'altra parte, deve essere parziale, poiché l'osservazione più grande è ovviamente (con probabilità 1) più piccola del valore reale di ; qualsiasi altra stima di non già esclusa dal campione stesso deve essere maggiore di essa e (in questo caso abbastanza chiaramente) deve avere meno probabilità di produrre il campione.θθ
L'aspettativa dell'osservazione più grande da una è , quindi il solito modo di scartare è prendere come stimatore di : , dove è l'osservazione più grande.U( 0 , θ )nn + 1θθ^= n + 1nX( n )X( n )
Questo si trova a destra del MLE e quindi ha una probabilità inferiore.