Supponiamo che una variabile casuale abbia un limite inferiore e uno superiore [0,1]. Come calcolare la varianza di una tale variabile?
Supponiamo che una variabile casuale abbia un limite inferiore e uno superiore [0,1]. Come calcolare la varianza di una tale variabile?
Risposte:
Puoi provare la disuguaglianza di Popoviciu come segue. Utilizzare la notazione e . Definire una funzione con
Calcolando la derivata , e risolvendo
troviamo che raggiunge il suo minimo at ( nota che ).
Ora, considera il valore della funzione nel punto speciale . Deve essere il caso che
Ma
Poiché e , abbiamo
,, implicando che
Sia una distribuzione su . Mostreremo che se la varianza di è massima, allora può avere alcun supporto all'interno, da cui segue che è Bernoulli e il resto è banale.
È un dato di notazione, lasciate il esimo momento grezzo (e, come al solito, si scrive e per la varianza).
Sappiamo che non ha tutto il suo supporto ad un certo punto (la varianza è minima in quel caso). Tra le altre cose, ciò implica che sta rigorosamente tra e . Per argomentare per contraddizione, supponiamo che ci sia un sottoinsieme misurabile all'interno per il quale . Senza alcuna perdita di generalità possiamo ipotizzare (cambiando in se necessario) che : in altre parole, si ottiene tagliando qualsiasi parte di sopra la media eμ 0 1 I ( 0 , 1 ) F ( I ) > 0 XF ( J = I ∩ ( 0 , μ ] ) > 0 J I J ha probabilità positive.
Modifichiamo in prendendo tutta la probabilità da e posizionandola su . F ′ J 0 Così facendo, modifiche
In termini di notazione, scriviamo per tali integrali, da cui
Calcolare
Il secondo termine a destra, , non è negativo perché ovunque sul . Il primo termine a destra può essere riscrittoμ ≥ x J
Il primo termine a destra è strettamente positivo perché (a) e (b) perché abbiamo assunto che non sia concentrato in un punto. Il secondo termine non è negativo perché può essere riscritto come e questo integrando non è negativo dalle ipotesi su e . Ne segue che .[ 1 ] = F ( J ) < 1 F [ ( μ - x ) ( x ) ] μ ≥ x J 0 ≤ x ≤ 1 σ ′ 2 - σ 2 > 0
Abbiamo appena dimostrato che sotto le nostre ipotesi, cambiando a strettamente aumenta la sua varianza. L'unico modo in cui ciò non può accadere, quindi, è quando tutta la probabilità di è concentrata agli endpoint e , con (diciamo) i valori e , rispettivamente. La sua varianza è facilmente calcolabile per eguagliare che è massima quando e uguale a lì.F ' F ' 0 1 1 - p p p ( 1 - p ) p = 1 / 2 1 / 4
Ora, quando è una distribuzione su , è più recente e la ridimensioniamo su una distribuzione su . Il recente non modifica la varianza mentre il riscaling la divide per . Quindi una con varianza massima su corrisponde alla distribuzione con varianza massima su : è quindi una distribuzione di Bernoulli riscalata e tradotta in con varianza 2/4 , QED .[ un , b ] [ 0 , 1 ] ( b - a ) 2 F [ a , b ] [ 0 , 1 ] ( 1 / 2 ) [ a , b ] ( b - a ) 2 / 4
Se la variabile casuale è limitata a e conosciamo la media , la varianza è limitata da .μ = E [ X ] ( b - μ ) ( μ - a )
Consideriamo innanzitutto il caso . Si noti che per tutti , , quindi anche . Utilizzando questo risultato, x ∈ [ 0 , 1 ] x 2 ≤ x E [ X 2 ] ≤ E [ X ] σ 2 = E [ X 2 ] - ( E [ X ] 2 ) = E [ X 2 ] - μ 2 ≤ μ - μ 2 = μ (
Per generalizzare ad intervalli con , considera limitato a . Definisci , che è limitato in . Equivalentemente, , e quindi cui la disuguaglianza si basa sul primo risultato. Ora, sostituendo , il limite è uguale a che è il risultato desiderato.b > a Y [ a , b ] X = Y - a [0,1]Y=(b-a)X+aVar[Y]=(b-a)2Var[X]≤(b-a)2μX(1-μX). μX=μY-a
Su richiesta di @ user603 ....
Un utile limite superiore sulla varianza di una variabile casuale che assume valori in con probabilità è . Una prova per il caso speciale (che è ciò di cui l'OP ha chiesto) può essere trovata qui su math.SE ed è facilmente adattabile al caso più generale. Come notato nel mio commento precede e la risposta si fa qui riferimento, una variabile casuale discreta che assume valori e con uguale probabilità ha varianza e quindi non è possibile trovare un limite generale più stretto . [ a , b ] 1 σ 2 ≤ ( b - a ) 2 a=0,b=1ab1 (b-a)2
Un altro punto da tenere a mente è che una variabile casuale limitata ha una varianza finita, mentre per una variabile casuale illimitata, la varianza potrebbe non essere finita e in alcuni casi potrebbe anche non essere definibile. Ad esempio, la media non può essere definita per le variabili casuali di Cauchy , quindi non si può definire la varianza (come l'attesa della deviazione al quadrato dalla media).
sei sicuro che questo sia vero in generale - per distribuzioni continue e discrete? Puoi fornire un link alle altre pagine? Per una distribuzione generale su è banale mostrare che Immagino che esistano disuguaglianze più acute ... Hai bisogno del fattore per il tuo risultato?V a r ( X ) = E [ ( X - E [ X ] ) 2 ] ≤ E [ ( b - a ) 2 ] = ( b - a ) 2 . 1 / 4
D'altra parte lo si può trovare con il fattore sotto il nome Popoviciu's_inequality su wikipedia.
Questo articolo sembra migliore dell'articolo di Wikipedia ...
Per una distribuzione uniforme sostiene che