Per quali distribuzioni l'incorrelazione implica l'indipendenza?


11

Un promemoria storico nelle statistiche è "la non correlazione non implica l'indipendenza". Di solito questo promemoria è integrato dall'affermazione psicologicamente calmante (e scientificamente corretta) "quando, tuttavia, le due variabili sono normalmente distribuite congiuntamente , allora l'incorrelazione implica indipendenza".

Posso aumentare il numero di felici eccezioni da una a due: quando due variabili sono distribuite da Bernoulli , quindi, la non correlazione implica indipendenza. Se e sono due camper di Bermoulli, , per cui abbiamo , e analogamente per , la loro covarianza èY X B ( q x ) ,XYP ( X = 1 ) = E ( X ) = q x YXB(qx),YB(qy)P(X=1)=E(X)=qxY

Cov(X,Y)=E(XY)E(X)E(Y)=SXYp(x,y)xyqxqy

=P(X=1,Y=1)qxqy=P(X=1Y=1)P(Y=1)qxqy

=(P(X=1Y=1)qx)qy

Per mancanza di correlazione, richiediamo che la covarianza sia zero

Cov(X,Y)=0P(X=1Y=1)=P(X=1)

P(X=1,Y=1)=P(X=1)P(Y=1)

che è la condizione necessaria anche affinché le variabili siano indipendenti.

Quindi la mia domanda è: conosci altre distribuzioni (continue o discrete) per le quali la non correlazione implica indipendenza?

Significato: supponiamo che due variabili casuali abbiano distribuzioni marginali che appartengono alla stessa distribuzione (forse con valori diversi per i parametri di distribuzione coinvolti), ma diciamo con lo stesso supporto ad es. due esponenziali, due triangolari, ecc. Tutte le soluzioni all'equazione sono tali da implicare anche l'indipendenza, in virtù della forma / proprietà delle funzioni di distribuzione coinvolte? Questo è il caso dei marginali normali (dato anche che hanno una distribuzione normale bivariata), così come dei marginali di Bernoulli: esistono altri casi?Cov ( X , Y ) = 0X,YCov(X,Y)=0

La motivazione qui è che di solito è più facile controllare se la covarianza è zero, rispetto a verificare se l'indipendenza vale. Quindi se, data la distribuzione teorica, controllando la covarianza si verifica anche l'indipendenza (come nel caso del Bernoulli o del caso normale), questa sarebbe una cosa utile da sapere.
Se ci vengono dati due campioni da due camper che hanno marginali normali, sappiamo che se potessimo concludere statisticamente dai campioni che la loro covarianza è zero, possiamo anche dire che sono indipendenti (ma solo perché hanno marginali normali). Sarebbe utile sapere se potremmo concludere allo stesso modo nei casi in cui i due camper avevano marginali appartenenti a qualche altra distribuzione.


Logicamente, non c'è dubbio qui: prendi qualsiasi coppia di variabili indipendenti come distribuzione. Che siano o no correlati, sono indipendenti dalla fiat ! Devi davvero essere più preciso su cosa intendi per "distribuzione" e su quali tipi di risposte troverai utili.
whuber

@whuber Non capisco il tuo commento. Io comincio da uncorrelatedness e chiedere "se posso dimostrare che essi siano correlati quando questo implica che essi sono anche indipendenti"? Poiché i due risultati indicati nella domanda dipendono dal fatto che il camper ha una distribuzione specifica (normale o Bernoulli), chiedo "esiste qualche altra distribuzione nota per la quale, se le due variabili la seguono, questo risultato vale"?
Alecos Papadopoulos,

3
Prendi due variabili indipendenti e lascia che sia la loro distribuzione. è una risposta valida alla tua domanda. Nota che stai chiedendo di provare un condizionale, che per definizione è vero ogni volta che il conseguente è vero, indipendentemente dal valore di verità del suo antecedente. Pertanto, secondo le regole di base della logica, tutte le distribuzioni di variabili indipendenti sono risposte alla tua domanda. F FX,YFF
whuber

@Whuber, hai evidentemente ragione. Ho aggiunto del testo relativo alla motivazione di questa domanda, che spero chiarisca quale fosse la mia motivazione.
Alecos Papadopoulos,

2
Con quali informazioni inizi quando prendi questa decisione? Dalla formulazione del tuo esempio, sembra che ti venga dato il pdf marginale per ogni variabile e le informazioni che ogni coppia di variabili non è correlata. Decidi quindi se sono anche indipendenti. È preciso?
Probislogic,

Risposte:


9

"Tuttavia, se le due variabili sono normalmente distribuite, l'incorrelazione implica indipendenza" è un errore molto comune .

Ciò vale solo se sono distribuiti congiuntamente normalmente.

Il controesempio che ho visto più spesso è normale e indipendente Rademacher Y (quindi è 1 o -1 con probabilità 0,5 ciascuno); allora Z = X Y è anche normale (chiaro considerando la sua funzione di distribuzione), Cov ( X , Z ) = 0 (il problema qui è mostrare E ( X Z ) = 0 ad es. ripetendo l'attesa su Y , e notando che X Z è X 2XN(0,1)YZ=XYCov(X,Z)=0E(XZ)=0YXZX2oppure con probabilità 0,5 ciascuno) ed è chiaro che le variabili dipendono (ad es. se conosco X > 2, quindi Z > 2 o Z < - 2 , quindi le informazioni su X mi danno informazioni su Z ). X2X>2Z>2Z<2XZ

Vale anche la pena ricordare che le distribuzioni marginali non determinano in modo univoco la distribuzione congiunta. Prendi due RV reali e Y con CDF marginali F X ( x ) e G Y ( y ) . Quindi per ogni α < 1 la funzione:XYFX(x)GY(y)α<1

HX,Y(X,y)=FX(X)solY(y)(1+α(1-FX(X))(1-FY(y)))

sarà un CDF bivariato. (Per ottenere la marginale ( x ) da H X , Y ( x , y ) prendere il limite mentre y va all'infinito, dove F Y ( y ) = 1. Viceversa per Y. ) Chiaramente selezionando valori diversi di α puoi ottenere diverse distribuzioni congiunte!FX(X)HX,Y(X,y)yFY(y)=1Yα


Infatti. Ho dimenticato il "giunto".
Alecos Papadopoulos,

1
@Alecos Dato che le distribuzioni marginali non determinano la distribuzione congiunta in generale (ho appena modificato la mia risposta per chiarire), dove lascia questa domanda?
Silverfish

1
@Alecos Penso di avere una migliore comprensione della sostanza della domanda ora: date due distribuzioni marginali, esiste una serie infinita di possibili distribuzioni congiunte. In quali circostanze l'imposizione della condizione di covarianza zero ci lascia con una sola di quelle distribuzioni congiunte ancora possibili, vale a dire quella in cui le variabili casuali sono indipendenti?
Silverfish

1
Se mi attengo al caso bivariato, con MGF comune e MGF marginali M X ( s ) = M X , Y ( s , 0 ) e M Y ( t ) = M X , Y ( 0 , t ) , la domanda diventa: quando fa 2MX,Y(S,t)MX(S)=MX,Y(S,0)MY(t)=MX,Y(0,t)implica cheMX,Y(s,t)=MX,Y(s,0)MX,Y(0,t)? 2StMX,Y(S,t)|S=0,t=0=SMX,Y(S,t)|S=0,t=0tMX,Y(S,t)|S=0,t=0MX,Y(s,t)=MX,Y(s,0)MX,Y(0,t)
Silverfish

2
@Silverman Verificherei il concetto di subindipendenza , en.wikipedia.org/wiki/Subindependence , per vedere se questo problema può essere formulato in termini di funzioni generatrici del momento.
Alecos Papadopoulos,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.