Funzioni di variabili casuali indipendenti


25

L'affermazione che le funzioni di variabili casuali indipendenti sono esse stesse indipendenti, vere?

Ho visto quel risultato spesso usato implicitamente in alcune prove, ad esempio nella prova di indipendenza tra la media del campione e la varianza del campione di una distribuzione normale, ma non sono stato in grado di trovare una giustificazione per questo. Sembra che alcuni autori lo prendano come dato, ma non sono sicuro che sia sempre così.

Risposte:


33

La definizione più generale e astratta di indipendenza rende questa affermazione banale fornendo una condizione qualificante importante: che due variabili casuali sono indipendenti significa che le sigma-algebre che generano sono indipendenti. Poiché la sigma-algebra generata da una funzione misurabile di una sigma-algebra è una sub-algebra, a fortiori qualsiasi funzione misurabile di tali variabili casuali ha algebre indipendenti, da cui tali funzioni sono indipendenti.

(Quando una funzione non è misurabile, di solito non crea una nuova variabile casuale, quindi il concetto di indipendente non si applicherebbe nemmeno.)


Scartiamo le definizioni per vedere quanto sia semplice. Ricordiamo che una variabile casuale X è una funzione a valore reale definita sullo "spazio campione" Ω (la serie di risultati studiati tramite probabilità).

  1. Una variabile casuale X viene studiata per mezzo della probabilità che il suo valore sia compreso in vari intervalli di numeri reali (o, più in generale, insiemi costruiti in modo semplice fuori dagli intervalli: questi sono gli insiemi misurabili di Borel di numeri reali).

  2. Corrispondente a qualsiasi insieme misurabile Borel è l' evento X * ( I ) che consiste di tutti i risultati Ohm per i quali X ( Ohm ) si trova in I .I X*(io)ωX(ω)I

  3. La sigma-algebra generata da è determinata dalla raccolta di tutti questi eventi.X

  4. La definizione ingenua dice che due variabili casuali e Y sono indipendenti "quando le loro probabilità si moltiplicano". Cioè, quando io sono un insieme misurabile di Borel e J è un altro, alloraXYIJ

    Pr(X(ω)I and Y(ω)J)=Pr(X(ω)I)Pr(Y(ω)J).

  5. Ma nel linguaggio degli eventi (e sigma algebre) è lo stesso di

    Pr(ωX(I) and ωY(J))=Pr(ωX(I))Pr(ωY(J)).

Considera ora due funzioni e supponi che f X e g Y siano variabili casuali. (Il cerchio è composizione funzionale: ( f X ) ( ω ) = f ( X ( ω ) ) . Ecco cosa significa che f è una "funzione di una variabile casuale".) Nota: questo è solo elementare teoria degli insiemi - quellaf,g:RRfXgY(fX)(ω)=f(X(ω))f

(fX)(I)=X(f(I)).

In altre parole, ogni evento generato da (che si trova a sinistra) è automaticamente un evento generato da XfXX (come mostrato dalla forma del lato destro). Pertanto (5) vale automaticamente per e g Y : non c'è nulla da controllare!fXgY


NB È possibile sostituire "valori reali" ovunque con "con valori in " senza dover cambiare nient'altro in alcun modo materiale. Questo riguarda il caso di variabili casuali a valori vettoriali.Rd


1
Le algebre di Sigma sono roba avanzata (livello universitario).
Aksakal,

3
@Aksakal Dipende da quale scuola vai o da quali libri leggi. (Ho insegnato con successo questo materiale a livello universitario del secondo anno. Ci sono anche resoconti meravigliosamente accessibili di questa teoria a livello universitario, come i testi di Steven Shreve sul calcolo stocastico, che sono indirizzati agli studenti con solo un background di calcolo.) Ma come è rilevante? Qualsiasi giustificazione, anche sofisticata, dovrebbe essere preferita a un'asserzione ingiustificata.
whuber

1
Sei molto gentile ad affrontare tutti questi problemi per aiutare qualcuno che ha posto una domanda. Grazie ancora. E hai ragione, le definizioni non sono troppo scoraggianti dopo tutto.
JohnK,

13

Considera questa prova "meno avanzata":

Sia , dove X , Y sono variabili casuali indipendenti e f , g sono funzioni misurabili. Quindi: P { f ( X ) x  e  g ( Y ) X:ΩXRn,Y:ΩYRm,f:RnRk,g:RmRpX,Yf,g Usando l'indipendenza di X e Y , P ( { X { w R n : f ( w

P{f(X)x and g(Y)y}=P({f(X)x}{g(Y)y})=P({X{wRn:f(w)x}}{Y{wRm:g(w)y}}).
XY
P({X{wRn:f(w)x}}{Y{wRm:g(w)y}})==P{X{wRn:f(w)x}P{Y{wRm:g(w)y}}=P{f(X)x}P{g(Y)y}.

{f(X)x}{wΩX:f(X(w))x}={X{wRn:f(w)x}},
Xf(X)Y

2
+1. Grazie per questo contributo, che si concentra così chiaramente sull'idea essenziale. Benvenuti nel nostro sito!
whuber

7

Sì, g(X) e h(Y) sono indipendenti per qualsiasi funzione g e h fino a quando X e Ysono indipendenti. È un risultato molto noto, che viene studiato nei corsi di teoria della probabilità. Sono sicuro che puoi trovarlo in qualsiasi testo standard come quello di Billingsley.


Grazie, attualmente sto studiando Hogg & Craig e MGB. Billingsley è il prossimo passo logico.
JohnK,

3
Billinglsey è una tortura a meno che tu non sia un matematico e non abbia già studiato le misure. L' introduzione di Partarathy è molto più facile del libro 2 in 1, il testo Probabilità di Alan Karr è anche di facile lettura.
Aksakal,

Un altro testo più semplice di quello di Billingsley: probabilità.ca
jeff

0

Non in alternativa, ma in aggiunta alle precedenti brillanti risposte, si noti che questo risultato è in effetti molto intuitivo.

Di solito, lo pensiamo X e Y essere indipendenti significa che conoscere il valore di X non fornisce informazioni sul valore di Ye viceversa. Questa interpretazione implica ovviamente che non puoi in qualche modo "spremere" un'informazione applicando una funzione (o con qualsiasi altro mezzo effettivamente).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.