Qual è la caratterizzazione più sorprendente della distribuzione gaussiana (normale)?


52

Una distribuzione gaussiana standardizzata su R può essere definita dando esplicitamente la sua densità:

12πex2/2

o la sua funzione caratteristica.

Come ricordato in questa domanda, è anche l'unica distribuzione per cui la media del campione e la varianza sono indipendenti.

Quali altre sorprendenti caratterizzazioni alternative delle misure gaussiane che conosci? Accetterò la risposta più sorprendente

Risposte:


39

Il mio personale più sorprendente è quello relativo alla media e alla varianza del campione, ma ecco un'altra (forse) caratterizzazione sorprendente: se X e Y sono IID con varianza finita con X+Y e XY indipendenti, allora X e Y sono normali.

Intuitivamente, di solito possiamo identificare quando le variabili non sono indipendenti con un diagramma a dispersione. Quindi immagina un diagramma a dispersione di coppie (X,Y) che sembra indipendente. Ora ruota di 45 gradi e guarda di nuovo: se sembra ancora indipendente, allora le coordinate X e Y devono essere normali (tutto ciò parla in modo approssimativo, ovviamente).

Per capire perché il bit intuitivo funziona, dai un'occhiata

[cos45sin45sin45cos45][xy]=12[xyx+y]

3
Jay - questa è fondamentalmente una re-dichiarazione della media e della varianza essendo indipendenti. è una media ridimensionata e X - Y è una deviazione standard riscalata. X+YXY
Probislogic

5
@probabilityislogic - Mi piace l'intuizione di ciò che hai detto, ma non penso che sia esattamente una riaffermazione perché non è esattamente un riscalaggio della SD: la SD dimentica il segno. Quindi l'indipendenza della media e della SD deriva dall'indipendenza di X + Y , X - Y (quando n = 2 ), ma non viceversa. Potrebbe essere stato quello che volevi dire "in sostanza". Comunque, è roba buona. XYX+YXYn=2

4
Dove possiamo trovare le prove per questa proprietà?
Royi,

1
@Royi vedi 16. qui . Per (a), nota che . Per (b) notare che φ ( 2 t ) φ ( - 2 t ) = ( φ ( t ) φ ( - t ) ) 4 che brama la sostituzione ψ ( t ) = φ ( t ) φ ( -2X=(X+Y)+(XY)φ(2t)φ(2t)=(φ(t)φ(t))4 da cui si ottiene ψ ( t ) = ψ 2 2 n ( tψ(t)=φ(t)φ(t). Seφ(t0)=0, allora ψ(t0)=0, quindi per tuttin,ψ(t0ψ(t)=ψ22n(t2n)φ(t0)=0ψ(t0)=0ne esiste una sequenzatntale chetn0eφ(tn)=0per tutton, che contraddice la continuità diφa0. (c) è semplice [continua]ψ(t02n)=0tntn0φ(tn)=0nφ0
Gabriel Romon,

1
Per (d), . Si noti cheφ(t)=1-t2γ(t)=γ2n(t2n)φ(t)=1t22+o(t2)γ(t)=1+o(t2)tγ(t)=1limnγ2n(t2n)=1γ(t)=1φ φ ( t ) = φ 2 2 n ( ttφφ(t)=1-t2φ(t)=φ22n(t2n)limnφ2 2 n (tφ(t)=1t22+o(t2)φ(t)=e-t2/2Xlimnφ22n(t2n)=et2/2φ(t)=et2/2 e è normale. X
Gabriel Romon,


22

C'è un intero libro scritto su questo: "Caratterizzazioni della normale legge di probabilità", AM Mathai e G. Perderzoli. Una breve recensione in JASA (dicembre 1978) menziona quanto segue:

Consenti a essere variabili casuali indipendenti. Quindi e sono indipendenti, dove , se e solo se [sono] normalmente distribuiti.n i = 1 a i x in i = 1 b i x i a i b i0 X iX1,,Xni=1naixii=1nbixiaibi0Xi


3
deve esserci una condizione tale che manca? ad esempio se n = 2 e non sono indipendenti. a i = b i = 1 X 1 + X 2 X 1 + X 2<a,b>=0ai=bi=1 X1+X2X1+X2
Robin Girard,

1
@robin buona cattura. Sono stato perplesso anche sui quantificatori impliciti. Sfortunatamente, tutto ciò a cui ho accesso è quella citazione (stimolante) dalla recensione, non dal libro. Sarebbe divertente trovarlo in una biblioteca e sfogliarlo ...
whuber

Sembra una generalizzazione della risposta di G. Jay Kerns (attualmente n. 1).
vqv

Penso che potresti essere alla ricerca del documento Lukacs & King (1954). Vedi questa risposta su math.SE con un link al documento di cui sopra.
cardinale

2
Dove questa proposizione dice "dove ", significa per OGNI serie di scalari in cui "? Odio vedere" dove "usato al posto di" per ogni "o" per alcuni "." Dove "dovrebbe essere usato per spiegare la propria notazione, come in" dove è la velocità della luce e è il prodotto interno lordo ", ecc.a i b i0aibi0aibi0gcg
Michael Hardy,

17

Le distribuzioni gaussiane sono le uniche distribuzioni stabili con varianza finita.


8
Che siano stabili e che siano quelli unici con varianza finita ci sono entrambi costretti dal CLT. La parte interessante di questa affermazione è che esistono altre distribuzioni stabili!
whuber

1
@whuber: davvero! questa caratterizzazione è un po 'contorta e le altre distribuzioni stabili sono forse più curiose.
Shabbychef,

@whuber in realtà, non vedo come il CLT implichi questo fatto. Sembra solo dirci che asintoticamente , la somma delle normali è normale, non che qualsiasi somma finita sia normalmente distribuita. O devi usare in qualche modo anche il teorema di Slutsky?
Shabbychef,

3
Adottando la solita standardizzazione, una somma di due normali è la somma di una distribuzione normale X_0 più la distribuzione limitante di una serie X_1, X_2, ..., da cui la somma è la distribuzione limitante di X_0, X_1, ..., che dal Lindeberg-Levy CLT è normale.
whuber

17

Il Lemma di Stein fornisce una caratterizzazione molto utile. è lo standard gaussiano iff per tutte le funzioni assolutamente continue con .E f ( Z ) = E Z f ( Z ) f E | f ( Z ) | < Z

Ef(Z)=EZf(Z)
fE|f(Z)|<

12

Teorema [Herschel-Maxwell]: Sia un vettore casuale per cui (i) le proiezioni in sottospazi ortogonali sono indipendenti e (ii) la distribuzione di dipende solo dalla lunghezza. Quindi viene normalmente distribuito.ZRnZZZZ

Citato da George Cobb in Insegnamento delle statistiche: alcune importanti tensioni (cileno J. Statistics Vol. 2, n. 1, aprile 2011) a pag. 54.

Cobb usa questa caratterizzazione come punto di partenza per derivare le distribuzioni , e , senza usare Calcolo (o molta teoria della probabilità). t Fχ2tF


9

Sia e due variabili casuali indipendenti con una distribuzione simmetrica comune tale cheξηξ

P(|ξ+η2|t)P(|ξ|t).

Quindi queste variabili casuali sono gaussiane. (Ovviamente, se e sono centrati gaussiani, è vero.)ηξη

Questo è il teorema di Bobkov-Houdre


9

Questa non è una caratterizzazione ma una congettura, che risale al 1917 ed è dovuta a Cantelli:

Se è una funzione positiva su e e sono variabili casuali indipendenti tali che è normale, allora è una costante quasi ovunque.R X Y N ( 0 , 1 ) X + f ( X ) Y ffRXYN(0,1)X+f(X)Yf

Menzionato da Gérard Letac qui .


è bello che tu lo menzioni! Non riesco a capire l'intuizione, vero?
Robin Girard,

@robin Questo è ciò che rende questa congettura così speciale: un'affermazione completamente elementare, alcuni ovvi approcci che falliscono miseramente (funzioni caratteristiche), e non si lascia nulla da afferrare ... A proposito, si dovrebbe scommettere sulla congettura come vera o falso? Anche questo non è ovvio (per me).
Ha fatto il

2
Se Gérard Letac non è riuscito a dimostrarlo, potrebbe rimanere una congettura aperta per un bel po '...!
Xi'an,

@ Xi'an: sono pienamente d'accordo, ovviamente. (Non sapevo fossi in roaming in questi quartieri del web ... Buone notizie che lo sei.)
Ha fatto il

6
@ Xi'an Ecco una prestampa di Victor Kleptsyn e Aline Kurtzmann con un controesempio alla congettura di Cantelli. La costruzione utilizza un nuovo strumento, che gli autori chiamano il trasporto di massa browniano, e svolge una funzione discontinua . Gli autori affermano di ritenere che la congettura di Cantelli valga se si chiede che sia continua (la loro è una miscela di due funzioni continue). fff
Ha fatto il

8

Supponiamo che uno stia stimando un parametro di posizione utilizzando i dati iid . Se è lo stimatore della massima verosimiglianza, la distribuzione campionaria è gaussiana. Secondo la teoria della probabilità di Jaynes : la logica della scienza, pp. 202-4, era così che Gauss l'ha originariamente derivata.ˉ x{x1,...,xn}x¯


Non sono sicuro di capirlo come una caratterizzazione della distribuzione normale, quindi probabilmente mi manca qualcosa. E se avessimo i dati di Poisson e volessimo stimare ? L'MLE è ma la distribuzione campionaria di non è gaussiana - in primo luogo, deve essere razionale; secondo, se fosse gaussiano, quindi sarebbe ma questo è . μx¯x¯x¯xiPoisson(nμ)
Silverfish,

2
La media di Poisson non è un parametro di posizione!
kjetil b halvorsen,

6

Una caratterizzazione più particolare della distribuzione normale tra le classi di distribuzioni infinitamente divisibili è presentata in Steutel e Van Harn (2004) .

Una variabile casuale non degenerata infinitamente divisibile ha una distribuzione normale se e solo se soddisfa X

lim supxlogP(|X|>x)xlog(x)=.

Questo risultato caratterizza la distribuzione normale in termini di comportamento della coda.


1
Una breve prova del limite dichiarato è la seguente: Se è normale normale, allora come , quindi . Ma e quindi il risultato segue. Uno schizzo approssimativo per il caso del Poisson sembra indicare che il limite dato è , ma non l'ho verificato troppo da vicino. XxP(X>x)/φ(x)1xlogP(X>x)logφ(x)+logx02logφ(x)x2λ
cardinale

6

Nel contesto del livellamento delle immagini (ad es. Spazio di scala ), il gaussiano è l'unico kernel separabile * simmetrico in senso rotazionale.

Cioè, se richiediamo dove , allora la simmetria rotazionale richiede che equivale a .

F[x,y]=f[x]f[y]
[x,y]=r[cosθ,sinθ]
Fθ=f[x]f[y]xθ+f[x]f[y]yθ=f[x]f[y]y+f[x]f[y]x=0f[x]xf[x]=f[y]yf[y]=const.
log[f[x]]=cx

Richiedere che sia un kernel corretto richiede quindi che la costante sia negativa e che il valore iniziale sia positivo, producendo il kernel gaussiano.f[x]


* Nel contesto delle distribuzioni di probabilità, separabile significa indipendente, mentre nel contesto del filtraggio di immagini consente di ridurre la convoluzione 2D in termini computazionali a due convoluzioni 1D.


2
+1 Ma ciò non deriva da un'applicazione immediata del teorema di Herschel-Maxwell in 2D?
whuber

@whuber In effetti, in qualche modo sono riuscito a trascurare la tua risposta guardando attraverso questa discussione!
ameba dice Ripristina Monica l'

@whuber Sì. Non avevo letto in dettaglio questo vecchio thread e stavo semplicemente aggiungendo questa risposta su richiesta.
GeoMatt22,

1
@amoeba vedi anche qui .
GeoMatt22,

3

Recentemente Ejsmont [1] ha pubblicato un articolo con una nuova caratterizzazione del gaussiano:

Sia essere vettori casuali indipendenti con tutti i momenti, in cui non sono generati, e lascia che la statistica hanno una distribuzione che dipende solo da , dove e . Quindi sono indipendenti e hanno la stessa distribuzione normale con zero e per .(X1,,Xm,Y) and (Xm+1,,Xn,Z)Xii=1naiXi+Y+Zi=1nai2aiR1m<nXii { 1 , , n }cov(Xi,Y)=cov(Xi,Z)=0i{1,,n}

[1]. Ejsmont, Wiktor. "Una caratterizzazione della distribuzione normale per l'indipendenza di una coppia di vettori casuali." Statistiche e lettere di probabilità 114 (2016): 1-5.


1
Questa è una caratterizzazione delicata e affascinante. Grazie per aver migliorato questo thread condividendolo!
whuber

1

La sua funzione caratteristica ha la stessa forma del suo pdf. Non sono sicuro di un'altra distribuzione che lo fa.


4
Vedi questa mia risposta per modi di costruire variabili casuali le cui funzioni caratteristiche sono le stesse dei loro pdf.
Dilip Sarwate,

-1

L'aspettativa più meno la deviazione standard sono i punti di sella della funzione.


11
Questa è una proprietà della distribuzione normale, certo, ma non la caratterizza , poiché anche molte altre distribuzioni hanno questa proprietà.
whuber
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.