Aspettativa di radice quadrata della somma di variabili casuali uniformi al quadrato indipendenti


9

Sia variabili variabili casuali standard indipendenti e distribuite in modo identico.X1,...,Xn~U(0,1)

Permettere Yn=ΣionXio2Io cerco: E[Yn]


L'aspettativa di è semplice:Yn

E[X2]=01y2y=13E[Yn]=E[ΣionXio2]=ΣionE[Xio2]=n3

Ora per la parte noiosa. Per applicare LOTUS, avrei bisogno del pdf di . Naturalmente il pdf della somma di due variabili casuali indipendenti è la convoluzione dei loro pdf. Tuttavia, qui abbiamo variabili casuali e immagino che la convoluzione porterebbe a un'espressione ... contorta (inteso orribile gioco di parole). C'è un modo più intelligente?Ynn

Preferirei vedere la soluzione corretta , ma se è impossibile o troppo complicato, un'approssimazione asintotica per grandi potrebbe essere accettabile. Per la disuguaglianza di Jensen, lo son

E[Yn]=n3E[Yn]

Ma questo non mi aiuta molto, a meno che non riesca a trovare anche un limite inferiore non banale. Si noti che il CLT non si applica direttamente qui, perché abbiamo la radice quadrata della somma di camper indipendenti, non solo la somma di camper indipendenti. Forse potrebbero esserci altri teoremi limite (che ignoro) che potrebbero essere di aiuto qui.


3
Vedi questa domanda per il risultato asintotico: stats.stackexchange.com/questions/241504/…
S. Catterall

4
Ottengo base alla domanda collegata sopra. E[Yn]n3-115
S. Catterall Ripristina Monica il

2
Non credo che userei nessuno degli approcci descritti in quella risposta (di cui ce ne sono più di due!) :-). Il motivo è che puoi avvalerti di simulazioni semplici e dirette per stimare le aspettative, mentre una soluzione analitica sembra irraggiungibile. Mi piace molto l'approccio di @Catterall (+1 per quella soluzione, che non avevo mai letto prima). La simulazione mostra che funziona bene anche per i piccoli . n
whuber

3
Vale la pena fare la simulazione :-). Traccia la differenza tra la media simulata e la formula approssimativa rispetto a . Ti mostrerà chiaramente come funziona l'approssimazione in funzione di . nnn
whuber

4
Chiaramente mentre l'approssimazione dà . In quel caso sarebbe stato corretto. Ma l'approssimazione migliora dopo. E[Y1]=0.513-115=4150,51613-112
Henry,

Risposte:


11

Un approccio consiste nel calcolare prima la funzione generatrice del momento (mgf) di definita da dove è indipendente e variabili casuali standard distribuite in modo identico .YnYn=U12++Un2Uio,io=1,...,n

Quando lo abbiamo, possiamo vedere che è il momento frazionario di dell'ordine . Quindi possiamo usare i risultati del documento Noel Cressie e Marinus Borkent: "La funzione generatrice dei momenti ha i suoi momenti", Journal of Statistical Planning and Inference 13 (1986) 337-344, che offre momenti frazionari attraverso la differenziazione frazionaria della funzione generatrice dei momenti .

EYn
Ynα=1/2

Innanzitutto la funzione generatrice del momento di , che scriviamo . e io abbiamo valutato che (con l'aiuto di Maple e Wolphram Alpha) dare a dove è l'unità immaginaria. (Wolphram Alpha dà una risposta simile, ma in termini di integrale Dawson. ) Si scopre che avremo principalmente bisogno del caso per . Ora è facile trovare il mgf di : Quindi per i risultati del documento citato. PerU12M1(t)

M1(t)=EetU12=01etX2XdX
M1(t)=erf(-t)π2-t
io=-1 t<0YnMn(t)=M1(t)nμ>0μfIμf(t)Γ(μ) - 1 t - (t-z) μ - 1 f(z)t<0Yn
Mn(t)=M1(t)n
μ>0definiscono l' integrale di ordine della funzione come Quindi, per e non integrali, un numero intero positivo e tale che . Quindi la derivata di di ordine viene definita come Quindi dichiarano (e dimostrano) il seguente risultato, per una variabile casuale positiva : Supponiamo che (mgf) sia definito. Quindi, perμf
ioμf(t)Γ(μ)-1-t(t-z)μ-1f(z)dz
α>0n0<λ<1α=n-λfα
Dαf(t)Γ(λ)-1-t(t-z)λ-1dnf(z)dzndz.
XMXα>0D α M X ( 0 ) = E X α < Y n α = 1 / 2 E Y 1 / 2 n = D 1 / 2 M n ( 0 ) = Γ ( 1 / 2 ) - 1 0 - | z | , Ora possiamo provare ad applicare questi risultati a . Con troviamo dove il primo indica la derivata. Maple offre la seguente soluzione: mostrerò un diagramma di questa aspettativa, realizzato in acero usando l'integrazione numerica, insieme alla soluzione approssimativa
DαMX(0)=EXα<
Ynα=1/2
EYn1/2=D1/2Mn(0)=Γ(1/2)-1-0|z|-1/2Mn'(z)dz
-0n(erf(-z)π-2ez-z)en(-2ln2+2ln(erf(-z))-ln(-z)+ln(π))22π(-z)3/2erf(-z)dz
UN(n)=n/3-1/15da alcuni commenti (e discussi nella risposta di @Henry). Sono notevolmente vicini:

Confronto esatto e approssimativo

Come complemento, un diagramma dell'errore percentuale:

Errore relativo (percentuale) nella trama sopra

Sopra circa l'approssimazione è vicina all'esatto. Di seguito il codice acero utilizzato:n=20

int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t>0;
int( exp(t*x)/(2*sqrt(x)), x=0..1 ) assuming t<0;
M := t -> erf(sqrt(-t))*sqrt(Pi)/(2*sqrt(-t))
Mn := (t,n) -> exp(n*log(M(t)))
A  :=  n -> sqrt(n/3 - 1/15)
Ex :=  n ->   int( diff(Mn(z,n),z)/(sqrt(abs(z))*GAMMA(1/2) ), z=-infinity..0 ,numeric=true)

plot([Ex(n),A(n)],n=1..100,color=[blue,red],legend=[exact,approx],labels=[n,expectation],title="expectation of sum of squared uniforms")
plot([((A(n)-Ex(n))/Ex(n))*100],n=1..100,color=[blue],labels=[n,"% error"],title="Percentage error of approximation")

1
molto interessante. Se potessi aggiungere alcuni grafici, questa sarebbe una risposta eccellente. Tuttavia, noterò qui un netto vantaggio dell'approssimazione CLT. L'approssimazione mostra chiaramente che cresce come quando . La soluzione Maple non funziona (o almeno non riesco a capirlo). E[Yn] nnn
DeltaIV

5

Come commento esteso: sembra chiaro qui che inizia con quando e quindi si avvicina a come aumenta, relativi alla varianza di caduta da verso . La mia domanda collegata a cui ha risposto S.Catterall fornisce una giustificazione per il risultato asintotico basato su ogni con media e varianzaE[E[Yn]=E[ΣioXio2] n=1E[Yn]=12=n3-112n=1n3-115nYn112115n3-115Xio213445 e la distribuzione è approssimativamente e asintoticamente normale.

Questa domanda riguarda effettivamente le distribuzioni di distanze dall'origine di punti casuali in un ipercubo unità dimensionale . È simile a una domanda sulla distribuzione delle distanze tra i punti in un tale ipercubo , quindi posso facilmente adattare ciò che ho fatto lì per mostrare le densità per vari da a usando la convoluzione numerica. Per , l'approssimazione normale suggerita mostrata in rosso è una buona misura e da puoi vedere apparire una curva a campana. n[0,1]nn116n=16n=4

inserisci qui la descrizione dell'immagine

Per e ottieni un picco netto nella modalità con quella che sembra la stessa densità in entrambi i casi. Confrontare questo con la distribuzione di , dove appare curva campana con e dove la varianza è proporzionale an=2n=31ΣioXion=3n


2
La varianza quasi costante porta a risultati forse controintuitivi. Ad esempio con , (la distanza dall'origine di un punto casuale in unità dimensionale hypercube) può assumere qualsiasi valore da a ma dei casi sarà tra e e praticamente tutti tra il e iln=400Y40040002094%11121013
Henry,

1
è un po 'contro-intuitivo, in effetti. A causa della maledizione della dimensionalità, mi aspettavo che la stragrande maggioranza dei punti fosse vicina agli angoli (realizzazioni st ). Sembra invece che la stragrande maggioranza dei punti sia lontana dall'origine, ma non per quanto riguarda gli angoli. Probabilmente l'errore è che dovremmo considerare la distanza dal centro dell'ipercubo , non la distanza dall'origine , che è solo uno degli angoli dell'ipercubo. y400y400=20
DeltaIV

3
@DeltaIV: Se rendi il tuo ipercubo lato così e misurando dall'origine, otterrai esattamente la stessa distribuzione, aspettativa e varianza. Con maggior parte dei punti in questo più grande ipecubo sarà vicino al limite di questo ipercubo (distanza tipica dell'ordine di ) ma non vicino ai suoi angoli (distanza tipica dal più vicino o )[ - 1 , 1 ] n n = 400 0,02 11 122[-1,1]nn=4000.021112
Henry

1
ha senso: non ho avuto il tempo di fare i conti, ma intuitivamente mi aspettavo risultati simili per . Mi aspettavo che l'aspettativa (scusate il gioco di parole) cambi di un fattore costante, ma come ho detto non ho avuto il tempo di verificarlo. U([-1,1])
DeltaIV
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.