Qual è l'intuizione alla base della definizione di completezza in una statistica come impossibile da cui ricavare uno stimatore imparziale da


21

Nelle statistiche classiche, esiste una definizione secondo cui una statistica T di un insieme di dati y1,,yn è definita come completa per un parametro θ è impossibile formare uno stimatore imparziale di 0 da esso non banalmente. Cioè, l'unico modo per avere Eh(T(y))=0 per tutti θ è avere h essere 0 quasi certamente.

C'è un'intuizione dietro questo? Sembra un modo piuttosto meccanico di definirlo, sono consapevole che questo è stato chiesto prima, ma mi chiedevo se ci fosse un'intuizione molto facile da capire che avrebbe reso gli studenti introduttivi più facili a digerire il materiale.


2
Questa è un'ottima domanda, ho dovuto scavare da solo. Si scopre che la ragione per cui è una tale definizione meccanica e non appare intuitivamente significativa per un praticante standard come me è che viene principalmente utilizzato per dimostrare contributi fondamentali nelle statistiche matematiche. In particolare, la mia breve ricerca ha rivelato che il teorema di Lehmann-Scheffé e il teorema di Basu richiedono completezza di una statistica per essere validi . Questi sono contributi della metà degli anni '50. Non posso offrirti una spiegazione intuitiva - ma se vuoi davvero costruirne una, forse le prove associate
Jeremias K,

Risposte:


18

Proverò ad aggiungere all'altra risposta. Innanzitutto, la completezza è una condizione tecnica che è principalmente giustificata dai teoremi che la utilizzano. Cominciamo quindi con alcuni concetti e teoremi correlati in cui si verificano.

Sia X=(X1,X2,,Xn) rappresentino un vettore di dati iid, che modelliamo come avente una distribuzione f(x;θ),θΘ dove il parametro θ governa i dati è sconosciuto. T=T(X) è sufficiente se la distribuzione condizionale di XT non dipende dal parametro θ . V=V(X) èaccessoriose la distribuzione diV non dipende daθ (all'interno della famigliaf(x;θ) ). U=U(X) è unostimatore imparziale di zerose la sua aspettativa è zero, indipendentemente daθ . S=S(X) è unastatistica completase qualsiasi stimatore imparziale di zero basato suS è identicamente zero, cioè seEg(S)=0(for all θ) quindig(S)=0 ae (per tuttiθ ).

Supponiamo ora di avere due diversi stimatori imparziali di θ basati sulla statistica sufficiente T , g1(T),g2(T) . Cioè, nei simboli

Eg1(T)=θ,Eg2(T)=θ
eP(g1(T)g2(T))>0(per tuttoθ). Quindig1(T)g2(T)è uno stimatore imparziale di zero, che non è identicamente zero, dimostrando cheTnon è completo. Quindi, la completezza di una statisticaTsufficienteci dà che esiste un solo stimatore imparziale unico diθ based on T. That is already very close to the Lehmann–Scheffé theorem.

Vediamo alcuni esempi. Supponiamo che X1,,Xn ora siano uniforme sull'intervallo (θ,θ+1) . Possiamo mostrare che ( X(1)<X(2)<<X(n) è la statistica dell'ordine) la coppia (X(1),X(n)) è sufficiente, ma non è completa, perché il differenza X(n)X(1) è accessorio, possiamo calcolare la sua aspettativa, lasciare che siac(che è solo una funzione din), e quindiX(n)X(1)csarà uno stimatore imparziale di zero che non è identicamente zero. Quindi la nostra statistica sufficiente, in questo caso, non è completa e sufficiente. E possiamo vedere cosa significhi: esistono funzioni della statistica sufficiente che non sono informative suθ (in the context of the model). This cannot happen with a complete sufficient statistic; it is in a sense maximally informative, in that no functions of it are uninformative. On the other hand, if there is some function of the minimally sufficient statistic that has expectation zero, that could be seen as a noise term, disturbance/noise terms in models have expectation zero. So we could say that non-complete sufficient statistics do contain some noise.

Look again at the range R=X(n)X(1) in this example. Since its distribution does not depend on θ, it doesn't by itself alone contain any information about θ. But, together with the sufficient statistic, it does! How? Look at the case where R=1 is observed.Then, in the context of our (known to be true) model, we have perfect knowledge of θ! Namely, we can say with certainty that θ=X(1). You can check that any other value for θ then leads to either X(1) or X(n) being an impossible observation, under the assumed model. On the other hand, if we observe R=0.1, then the range of possible values for θ is rather large (exercise ...).

In this sense, the ancillary statistic R does contain some information about the precision with which we can estimate θ based on this data and model. In this example, and others, the ancillary statistic R "takes over the role of the sample size". Usually, confidence intervals and such needs the sample size n, but in this example, we can make a conditional confidence interval this is computed using only R, not n (exercise.) This was an idea of Fisher, that inference should be conditional on some ancillary statistic.

Now, Basu's theorem: If T is complete sufficient, then it is independent of any ancillary statistic. That is, inference based on a complete sufficient statistic is simpler, in that we do not need to consider conditional inference. Conditioning on a statistic which is independent of T does not change anything, of course.

Then, a last example to give some more intuition. Change our uniform distribution example to a uniform distribution on the interval (θ1,θ2) (with θ1<θ2). In this case the statistic (X(1),X(n)) is complete and sufficient. What changed? We can see that completeness is really a property of the model. In the former case, we had a restricted parameter space. This restriction destroyed completeness by introducing relationships on the order statistics. By removing this restriction we got completeness! So, in a sense, lack of completeness means that the parameter space is not big enough, and by enlarging it we can hope to restore completeness (and thus, easier inference).

Some other examples where lack of completeness is caused by restrictions on the parameter space,

  • see my answer to: What kind of information is Fisher information?

  • Let X1,,Xn be iid Cauchy(θ,σ) (a location-scale model). Then the order statistics in sufficient but not complete. But now enlarge this model to a fully nonparametric model, still iid but from some completely unspecified distribution F. Then the order statistics is sufficient and complete.

  • For exponential families with canonical parameter space (that is, as large as possible) the minimal sufficient statistic is also complete. But in many cases, introducing restrictions on the parameter space, as with curved exponential families, destroys completeness.

A very relevant paper is An Interpretation of Completeness and Basu's Theorem.


7

Some intuition may be available from the theory of best (minimum variance) unbiased estimators.

If EθW=τ(θ) then W is a best unbiased estimator of τ(θ) iff W is uncorrelated with all unbiased estimators of zero.

WWEθW=EθW=τ(θ)W=W+(WW). By assumption, VarθW=VarθW+Varθ(WW). Hence, for any W, VarθWVarθW.

Now assume that W is a best unbiased estimator. Let there be some other estimator U with EθU=0. ϕa:=W+aU is also unbiased for τ(θ). We have

Varθϕa:=VarθW+2aCovθ(W,U)+a2VarθU.
If there were a θ0Θ such that Covθ0(W,U)<0, we would obtain Varθϕa<VarθW for a(0,2Covθ0(W,U)/Varθ0U). W could then not be the best unbiased estimator. QED

Intuitively, the result says that if an estimator is optimal, it must not be possible to improve it by just adding some noise to it, in the sense of combining it with an estimator that is just zero on average (being an unbiased estimator of zero).

Unfortunately, it is difficult to characterize all unbiased estimators of zero. The situation becomes much simpler if zero itself is the only unbiased estimator of zero, as any statistic W satisfies Covθ(W,0)=0. Completeness describes such a situation.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.