Qual è il risultato più potente del massimo di iid gaussiani? Il più usato in pratica?


9

Dato iid, considera le variabili casualiX1,,Xn,N(0,1)

Zn:=max1inXi.

Domanda: Qual è il risultato più "importante" di queste variabili casuali?

Per chiarire "l'importanza", quale risultato ha il maggior numero di altri risultati come conseguenza logica? Quale dei risultati viene utilizzato più spesso nella pratica?

Più specificamente, sembra essere conoscenza del folklore tra gli statistici (teorici) che gli Zn sono "sostanzialmente gli stessi di" 2logn , almeno asintoticamente. (Vedi questa domanda correlata .)

Tuttavia, ci sono molti risultati correlati di questo tipo e sembra che la maggior parte non sia equivalente, né si implicino a vicenda. Ad esempio ,

(1)Zn2logna.s.1,

che se non altro implica anche i risultati corrispondenti in probabilità e distribuzione.

Tuttavia, non implica nemmeno risultati apparentemente correlati (vedi questa altra domanda ), come

(2)limnEZn2logn=1,

(questo è l'esercizio 2.17 a p. 49 di ), o un altro risultato folcloristico :

(3)EZn=2logn+Θ(1).

Non asintoticamente, è anche noto che per ogni (vedi qui per una prova),n

(4)clognEZn2logn

per alcuni piccoli . Risultati simili possono anche essere visualizzati per, poiché è fortemente inclinato a destra.c|Zn|Zn

La prova di quest'ultimo risultato è molto più semplice di quella degli altri risultati. La mia speranza era stata che il primo risultato asintotico avrebbe implicato tutti gli altri risultati asintotici, in modo che potessi sentirmi sicuro concentrando tutto il mio tempo e la mia energia nella comprensione di quel risultato. Ma, di nuovo, ciò non sembra vero , quindi ora non mi è chiaro su cosa dovrei concentrarmi.

Vedi pagg. 265-267 della seconda edizione di Galambos, The Asymptotic Theory of Extreme Order Statistics , stampata nel 1987. Probabilmente è anche indicato da qualche parte nella prima edizione.

Boucheron, Lugosi, Massart, Disuguaglianze di concentrazione: una teoria dell'indipendenza non asintotica . A parte: questo libro in realtà cita Galambos per il risultato in questione, ma non riesco a trovarlo menzionato da nessuna parte in Galambos - solo il primo risultato che ho citato.


1
Sai che quando usi \ punti in MathJax il risultato a volte appare come se avessi usato \ ldots e talvolta come se avessi usato \ cdots, a seconda del contesto? Ho sostituito \ punti con \ ldots in questa domanda.
X_1, \dots, X_n, \dots \sim \mathscr{N}(0,1)X1,,Xn,N(0,1)X_1, \ldots, X_n, \ldots \sim \mathscr{N}(0,1)X1,,Xn,N(0,1)
Michael Hardy,

@MichaelHardy Oh, ho pensato che fosse sempre centrato. Grazie per la correzione!
Chill2Macht,

Risposte:


4

In qualsiasi applicazione probabilistica, l'oggetto più fondamentale è la distribuzione, con i momenti e le proprietà limitanti che ne derivano. Quindi, il risultato più "importante", nel senso che hai descritto, è la funzione di distribuzione completa (equivalentemente, la funzione di densità corrispondente). In pratica, questo risultato distributivo è forse meno illuminante di alcune delle proprietà asintotiche più basilari che hai già elencato. Anche se logicamente implica questi risultati asintotici, a mio avviso, è probabile che questi risultati siano più illuminanti nel comprendere la natura mutevole del valore estremo mentre cambiamo .FZn(z)=Φn(z)n

È chiaro dalla tua domanda che hai una buona comprensione delle proprietà di valore estremo nel caso di un massimo di variabili casuali normali standard IID. Queste proprietà sono tutte logicamente derivabili dalla funzione di distribuzione per , quindi questo è l'oggetto più fondamentale al lavoro in questo problema. Come in molti casi, l'oggetto più fondamentale non è necessariamente il più illuminante, e quindi probabilmente scoprirai che devi accontentarti di conoscere tutti i risultati e di sapere che illuminano aspetti diversi del problema.Zn


Grazie per questa risposta - lo apprezzo molto. Conosci un riferimento su come derivare tutte queste proprietà dalla funzione di distribuzione per ? Ho avuto estrema difficoltà a trovare qualcosa che spieghi questo, perché è tutto o "folklore" o "mano nella mano". Zn
Chill2Macht,

Per la cronaca, ho letto i link e non aiutano. Ecco perché ho posto la domanda.
Chill2Macht,

1
Non ho un riferimento specifico da raccomandare, ma penso che questi risultati sarebbero derivati ​​da libri sulla teoria del valore estremo. Ti suggerirei di iniziare a cercare alcuni testi di laurea su quell'argomento e vedere se riesci a trovare le derivazioni lì.
Ben - Ripristina Monica l'

1

WIP: lavori in corso

A seguito di p. 370 dei Metodi matematici di statistica del 1946 di Cramer , definisciQui è la funzione di distribuzione cumulativa della distribuzione normale standard, . Come conseguenza della sua definizione, ci viene garantito che quasi sicuramente.

Ξn=n(1Φ(Zn)).
ΦN(0,1)0Ξnn

Considera una data realizzazione del nostro spazio campione. Quindi in questo senso è sia una funzione di e , sia una funzione di e . Per un fisso , possiamo considerare una funzione deterministica di , e una funzione deterministica di e , semplificando così il problema. Il nostro obiettivo è mostrare risultati che valgono quasi sicuramente per tuttiωΩZnnωΞnZn,nωωZnnΞnZnnωΩ, permettendoci di trasferire i nostri risultati da un'analisi non deterministica a un'impostazione non deterministica.

A seguito di p. 374 dei Metodi matematici di statistica del 1946 di Cramer , supponiamo per il momento (il mio obiettivo è di tornare e fornire una prova in seguito) che siamo in grado di dimostrare che (per ogni dato ) vale la seguente espansione asintotica (usando integrazione per parti e definizione di ):ωΩΦ

(~)2πnΞn=1ZneZn22(1+O(1Zn2))  as  Zn.

Chiaramente abbiamo che per qualsiasi , e è quasi sicuramente una funzione crescente di come , quindi rivendichiamo in quanto segue tutto ciò per (quasi sicuramente tutto) risolto : daZn+1ZnnZnnnω

Znn.

Quindi ne segue che abbiamo (dove denota equivalenza asintotica ):

2πnΞn1Zne1Zn2  as  Znn.

Il modo in cui procediamo in ciò che segue equivale essenzialmente al metodo dell'equilibrio dominante e le nostre manipolazioni saranno formalmente giustificate dal seguente lemma:

Lemma: supponi che come e (quindi ). Quindi, data qualsiasi funzione che si forma attraverso composizioni, aggiunte e moltiplicazioni di logaritmi e leggi di potere (essenzialmente qualsiasi funzione di " polilogo "), dobbiamo avere anche quello come :In altre parole, tali funzioni di "polilogo" preservano l'equivalenza asintotica .f(n)g(n)nf(n)g(n)hn

h(f(n))h(g(n)).

La verità di questo lemma è una conseguenza del Teorema 2.1. come scritto qui . Si noti inoltre che ciò che segue è principalmente una versione espansa (maggiori dettagli) della risposta a una domanda simile trovata qui .

Prendendo i logaritmi di entrambe le parti, otteniamo che:

(1)log(2πΞn)lognlogZnZn22.

Questo è dove Cramer è piuttosto ingombrante; dice solo "supponendo che sia limitato", possiamo concludere blah blah blah. Ma mostrare che è opportunamente delimitato sembra quasi sicuramente non banale. Sembra che la prova di ciò possa essere essenzialmente parte di ciò che è stato discusso nelle pagine 265-267 di Galambos, ma non sono sicuro che sto ancora lavorando per capire il contenuto di quel libro.ΞnΞn

Ad ogni modo, supponendo che si possa dimostrare chelogΞn=o(logn) , segue (poiché il termine domina il termine ) che:Zn2/2logZn

lognZn22Zn2logn.

Questo è in qualche modo carino, poiché è già la maggior parte di ciò che vogliamo mostrare, anche se di nuovo vale la pena notare che essenzialmente sta solo dando calci alla lattina lungo la strada, poiché ora dobbiamo mostrare alcuni quasi sicuramente di . D'altra parte, ha la stessa distribuzione per qualsiasi massimo di variabili casuali continue iid, quindi questo può essere trattabile.ΞnΞn

Ad ogni modo, se as, allora chiaramente si può anche concludere che per qualsiasi che è come . Usando il nostro lemma sulle funzioni di polilogo che preservano l'equivalenza asintotica sopra, possiamo sostituire questa espressione in per ottenere:Zn2lognZn2logn(1+α(n))α(n)o(1)n(1)

log(2πΞn)lognlog(1+α)12log212loglognlogn2αlognα2logn.

log(Ξn2π)log(1+α)+12log2+12loglogn+2αlogn+α2logn.

Qui dobbiamo andare ancora oltre e presumere che quasi sicuramentelogΞn=o(loglogn)  as  n . Ancora una volta, tutto ciò che dice Cramer è "supponendo che sia limitato". Ma poiché tutto ciò che si può dire a priori su è che come, quasi non sembra chiaro che si dovrebbe avere quasi sicuramente, che sembra essere la sostanza della pretesa di Cramer.ΞnΞn0XinnΞn=O(1)

Comunque, supponendo che si creda, ne consegue che il termine dominante che non contiene è . Poiché , ne consegue che , e chiaramente , quindi il termine dominante contenente è . Pertanto, possiamo riorganizzare e (dividendo tutto per o ) trovare cheα12loglognα=o(1)α2=o(α)log(1+α)=o(α)=o(o(αlogn))α2αlogn12loglogn2αlogn

12loglogn2αlognαloglogn4logn.

Pertanto, sostituendolo con quanto sopra, otteniamo che:

Zn2lognloglogn22logn,

di nuovo, supponendo che crediamo a certe cose su .Ξn

Ridisegniamo la stessa tecnica; poiché , segue anche cheZn2lognloglogn22logn

Zn2lognloglogn22logn(1+β(n))=2logn(1loglogn8logn(1+β(n))),

quando . Semplifichiamo un po 'prima di rimpiazzare direttamente in (1); otteniamo che:β(n)=o(1)

logZnlog(2logn)+log(1loglogn8logn(1+β(n)))log(O(1))=o(logn)log(2logn).

Zn22logn12loglogn(1+β)+(loglogn)28logn(1β)2o((1+β)loglogn)logn12(1+β)loglogn.

Sostituendo questo in (1), troviamo che:

log(2πΞn)lognlog(2logn)logn+12(1+β)loglognβlog(4πΞn2)loglogn.

Pertanto, lo concludiamo quasi sicuramente

Zn2lognloglogn22logn(1+log(4π)+2log(Ξn)loglogn)=2lognloglogn+log(4π)22lognlog(Ξn)2logn.

Ciò corrisponde al risultato finale a p.374 dei Metodi matematici di statistica del 1946 di Cramer, tranne per il fatto che qui non viene fornito l'ordine esatto del termine di errore. Apparentemente l'applicazione di questo ulteriore termine fornisce l'ordine esatto del termine di errore, ma in ogni caso non sembra necessario dimostrare i risultati sui massimi dei normali standard a cui siamo interessati.


Dato il risultato di quanto sopra, vale a dire che quasi sicuramente:

()Zn2lognloglogn+log(4π)22lognlog(Ξn)2lognZn=2lognloglogn+log(4π)22lognlog(Ξn)2logn+o(1).

2. Quindi per linearità di aspettativa segue che:

EZn=2lognloglogn+log(4π)22lognE[log(Ξn)]2logn+o(1)EZn2logn=1E[logΞn]2logn+o(1).

Pertanto, lo abbiamo dimostrato

limnEZn2logn=1,

purché possiamo anche dimostrarlo

E[logΞn]=o(logn).

Questo potrebbe non essere troppo difficile da mostrare poiché di nuovo ha la stessa distribuzione per ogni variabile casuale continua. Quindi abbiamo il secondo risultato dall'alto.Ξn

1. Allo stesso modo, abbiamo anche da quanto sopra che quasi sicuramente:

Zn2logn=1log(Ξn)2logn+o(1),.

Pertanto, se possiamo dimostrare che:

(*)log(Ξn)=o(logn) almost surely,

allora avremo mostrato il primo risultato dall'alto. Il risultato (*) implicherebbe anche chiaramente a fortiori che , dandoci così anche il primo risultato dall'alto.E[log(Ξn)]=o(logn)

Nota anche che nella dimostrazione sopra di ( ) abbiamo dovuto assumere comunque che quasi sicuramente (o almeno qualcosa di simile), in modo che se siamo in grado di mostrare ( ) molto probabilmente avremo anche nel processo necessario per mostrare quasi sicuramente, e quindi se potremo provare saremo molto probabilmente in grado di raggiungere immediatamente tutte le seguenti conclusioni.Ξn=o(logn)Ξn=o(logn)()

3. Tuttavia, se abbiamo questo risultato, allora non capisco come si possa avere anche quello , poiché . Ma almeno sembrerebbe vero cheEZn=2logn+Θ(1)o(1)Θ(1)

EZn=2logn+O(1).


Quindi sembra che possiamo concentrarci sul rispondere alla domanda su come mostrare che

Ξn=o(logn) almost surely.

Dovremo anche fare il duro lavoro di fornire una prova per (~), ma per quanto ne so, è solo un calcolo e non implica alcuna teoria della probabilità, anche se devo ancora sedermi e provarlo ancora.

Innanzitutto passiamo attraverso una catena di banalità per riformulare il problema in un modo che semplifichi la risoluzione (si noti che per definizione ):Ξn0

Ξn=o(logn)limnΞnlogn=0ε>0,Ξnlogn>ε only finitely many timesε>0,Ξn>εlogn only finitely many times.

Uno ha anche che:

Ξn>εlognn(1F(Zn))>εlogn1F(Zn)>εlognnF(Zn)<1εlognnZninf{y:F(y)1εlognn}.

Di conseguenza, definire per tutto :n

un(ε)=inf{y:F(y)1εlognn}.

Pertanto i passaggi precedenti ci mostrano che:

Ξn=o(logn) a.s.P(Ξn=o(logn))=1P(ε>0,Ξn>εlogn only finitely many times)=1P(ε>0,Znun(ε) only finitely many times)=1P(ε>0,Znun(ε) infinitely often)=0.

Si noti che possiamo scrivere:

{ε>0,Znun(ε) infinitely often}=ε>0{Znun(ε) infinitely often}.

Le sequenze diventano uniformemente più grandi al diminuire di , quindi possiamo concludere che gli eventi stanno diminuendo (o almeno in qualche modo monotonico) come va a . Pertanto l'assioma di probabilità relativo alle sequenze monotoniche di eventi ci consente di concludere che:un(ε)ε

{Znun(ε) infinitely often}
ε0

P(ε>0,Znun(ε) infinitely often)=P(ε>0{Znun(ε) infinitely often})=P(limε0{Znun(ε) infinitely often})=limε0P(Znun(ε) infinitely often).

Pertanto è sufficiente mostrare che per tutti ,ε>0

P(Znun(ε) infinitely often)=0

perché ovviamente il limite di ogni sequenza costante è la costante.

Ecco un risultato piuttosto simile a una mazza:

Teorema 4.3.1., P. 252 of Galambos, The Asymptotic Theory of Extreme Order Statistics , 2a edizione. Consenti a essere variabili tra le funzioni comuni non distribuite e di distribuzione continua , e lasciare che sia una sequenza non decrescente in modo che anche diminuisca. Quindi, per , secondo X1,X2,F(x)unn(1F(un))un<sup{x:F(x)<1}

P(Znun infinitely often)=0 or 1
j=1+[1F(uj)]exp(j[1F(uj)])<+ or =+.

La dimostrazione è tecnica e occupa circa cinque pagine, ma alla fine risulta essere un corollario di uno dei lemmi di Borel-Cantelli. Potrei tentare di condensare la prova per usare solo la parte richiesta per questa analisi, nonché solo le ipotesi contenute nel caso gaussiano, che potrebbe essere più breve (ma forse non lo è) e scriverlo qui, ma trattenere il respiro non è raccomandato. Si noti che in questo caso , quindi tale condizione è vacua, e è quindi chiaramente non decrescente.ω(F)=+n(1F(n))εlogn

Comunque sia, facendo appello a questo teorema, possiamo dimostrare che:

j=1+[1F(uj(ε))]exp(j[1F(uj(ε))])=j=1+[εlogjj]exp(εlogj)=εj=1+logjj1+ε<+.

Si noti che poiché la crescita logaritmica è più lenta di qualsiasi crescita della legge del potere per qualsiasi esponente della legge del potere positivo (i logaritmi e gli esponenziali preservano la monotonia, quindi e la precedente disuguaglianza può sempre essere considerata valida per tutti i abbastanza grandi a causa del fatto che e un cambiamento di variabili), abbiamo che:loglognαlognlognnαnlognn

j=1+logjj1+εj=1+jε/2j1+ε=j=1+1j1+ε/2<+,

poiché è noto che la serie p converge per tutti e ovviamente implica .p>1ε>01+ε/2>1

Quindi usando il teorema sopra abbiamo mostrato che per tutti , , che per ricapitolare dovrebbe significare che quasi sicuramente.ε>0P(Znun(ε) i.o.)=0Ξn=o(logn)

Dobbiamo mostrare ancora che . Ciò non segue quanto sopra, poiché, ad esempio,logΞn=o(loglogn)

1nlogn=o(logn),logn+loglogno(logn).

Tuttavia, data una sequenza , se si può mostrare che per arbitrario , allora segue . Idealmente, vorrei essere in grado di mostrarlo per usando il lemma sopra (supponendo che sia persino vero), ma non sono in grado di farlo (per ora).xnxn=o((logn)δ)δ>0log(xn)=o(loglogn)Ξn

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.