Funzione inversa di varianza


9

Per un dato numero costante r (es. 4), è possibile trovare una distribuzione di probabilità per X , in modo che abbiamo Var(X)=r ?


1
No, a meno che tu non abbia ulteriori informazioni.
Hemant Rupani,

@Hemant Rupani quali informazioni aggiuntive sono necessarie?
amiref,

1
qualsiasi natura della variabile casuale 'X' ...
Hemant Rupani,

3
Ti suggerisco di modificare la tua domanda per sostituire "valore per X" con "distribuzione per X" - se X ha un solo valore, allora X ha una distribuzione degenerata e avrà varianza zero.
Silverfish,

1
A meno che r sia negativo, la risposta è ovviamente sì, una varianza può essere qualsiasi numero positivo.
dsaxton,

Risposte:


13

Considerando attentamente i casi per : se r = 0 la distribuzione è degenerata, ma X potrebbe avere qualsiasi mezzo. Cioè, Pr ( X = μ ) = 1 e Pr ( X = c ) = 0 per ogni c μ . Così possiamo trovare molte distribuzioni possibili per X , ma sono indicizzati da, e completamente specificato da, u R .rr=0XPr(X=μ)=1Pr(X=c)=0cμXμR

Se , non è possibile trovare alcuna distribuzione, poiché V a r ( X ) = E ( X - μ X ) 20 .r<0Var(X)=E(XμX)20

Per , la risposta dipenderà da quello che ulteriori informazioni si sa di X . Ad esempio, se X è noto per avere media μ , quindi per qualsiasi μ R e r > 0 possiamo trovare una distribuzione con questi momenti prendendo X N ( μ , r ) . Questa non è una soluzione unica al problema di abbinare media e varianza, ma è l'unica soluzione normalmente distribuita (e di tutte le possibili soluzioni, questa è quella che massimizza l'entropia, come sottolinea Daniel). Se anche tu volessi abbinare, ad esempio, il terzo momento centraler>0XXμμRr>0XN(μ,r)o superiore, dovresti prendere in considerazione una gamma più ampia di distribuzioni di probabilità.

Supponiamo invece di avere alcune informazioni sulla distribuzione di piuttosto che sui suoi momenti. Ad esempio, se sappiamo che X segue una distribuzione di Poisson, la soluzione unica sarebbe X P o i s s o n ( r ) . Se sappiamo che X segue una distribuzione esponenziale, allora di nuovo esiste una soluzione unica X E x p o n e n t i a l ( 1XXXPoisson(r)X, dove abbiamo trovato il parametro risolvendoVar(X)=r=1XExponential(1r) .Var(X)=r=1λ2

In altri casi possiamo trovare un'intera famiglia di soluzioni. Se sappiamo che segue una distribuzione rettangolare (uniforme continua), allora possiamo trovare una larghezza unica w per la distribuzione risolvendo V a r ( X ) = r = w 2Xw . Ma ci sarà un'intera famiglia di soluzioni,X~U(una,un+w)parametized daunR- le distribuzioni in questo set sono tutte le traduzioni di ogni altro. Allo stesso modo, seXè normale, qualsiasi distribuzioneXN(μ,r) funzionerebbe (quindi abbiamo un intero set di soluzioni indicizzate daμ, che di nuovo può essere qualsiasi numero reale, e di nuovo la famiglia sono tutte traduzioni l'una dell'altra ). SeXsegue unadistribuzione gammaVar(X)=r=w212XU(a,a+w)aRXXN(μ,r)μXquindi, utilizzando la parametrizzazione della scala di forma, possiamo ottenere un'intera famiglia di soluzioni, parametrizzato daθ>0. I membri di questa famiglia non sono traduzioni reciproche. Per aiutare a visualizzare come potrebbe apparire una "famiglia di soluzioni", ecco alcuni esempi di distribuzioni normali indicizzate daμ, quindi distribuzioni gamma indicizzate daθ, tutte con varianza uguale a quattro, corrispondente all'esempior=4nella tua domanda .XGamma(rθ2,θ)θ>0μθr=4

Distribuzioni normali con varianza quattro Distribuzioni gamma con varianza quattro

D'altra parte, per alcune distribuzioni potrebbe essere o non essere possibile trovare una soluzione, a seconda del valore di . Ad esempio se X deve essere una variabile di Bernoulli, allora per 0 r < 0,25 ci sono due possibili soluzioni X B e r n o u l l i ( p ) perché ci sono due probabilità p che risolvono l'equazione V a r ( X ) = r = p ( 1 - prX0r<0.25XBernoulli(p)p , e in effetti queste due probabilità sono complementari, cioè p 1 + p 2 = 1 . Per r = 0,25 esiste solo la soluzione unica p = 0,5 e per r > 0,25 nessuna distribuzione di Bernoulli ha varianza sufficientemente elevata.Var(X)=r=p(1p)p1+p2=1r=0.25p=0.5r>0.25

Sento che dovrei anche menzionare il caso . Ci sono soluzioni anche per questo caso, ad esempio una distribuzione t di Student con due gradi di libertà.r=t

Codice R per grafici

require(ggplot2)

x.df  <- data.frame(x = rep(seq(from=-8, to=8, length=100), times=5),
    mu = rep(c(-4, -2, 0, 2, 4), each=100))
x.df$pdf <- dnorm(mean=x.df$mu, x.df$x)
ggplot(x.df, aes(x=x, y=pdf, group=factor(mu), colour=factor(mu))) + theme_bw() + 
    geom_line(size=1) + scale_colour_brewer(name=expression(mu), palette="Set1") +
    theme(legend.key = element_blank()) + ggtitle("Normal distributions with variance 4")

x.df  <- data.frame(x = rep(seq(from=0, to=20, length=1000), times=5),
    theta = rep(c(0.25, 0.5, 1, 2, 4), each=1000))
x.df$pdf <- dgamma(x.df$x, shape=4/(x.df$theta)^2, scale=x.df$theta)
ggplot(x.df, aes(x=x, y=pdf, group=factor(theta), colour=factor(theta))) + theme_bw() + 
    geom_line(size=1) + scale_colour_brewer(name=expression(theta), palette="Set1") +
    theme(legend.key = element_blank()) + ggtitle("Gamma distributions with variance 4") +
    coord_cartesian(ylim = c(0, 1)) 

17

Supponendo che intendi "è possibile trovare una distribuzione di probabilità per ", allora la risposta è sì, poiché non hai specificato alcun criterio che X debba soddisfare. In effetti esiste un numero infinito di possibili distribuzioni che soddisferebbero questa condizione. Considera solo una distribuzione normale, N ( x ; μ , σ 2 ) . Puoi impostare σ 2 = r e μ può assumere qualsiasi valore ti piaccia - avrai quindi V a r [ X ] = r come richiesto.XXN(x;μ,σ2)σ2=rμVar[X]=r

In effetti, la distribuzione Normale è piuttosto speciale in questo senso in quanto è la massima distribuzione di probabilità entropica per una data media e varianza.


hai ragione, l'ho corretto. potresti spiegare di più?
amiref,

@AmirEf Cosa non è chiaro?
Daniel,

6
Non è affatto chiaro cos'altro dovrebbe spiegare Daniel; la risposta qui sembra occuparsi di tutto nella tua domanda postata.
Glen_b

15

Questa domanda può essere interpretata in un modo che la rende interessante e non del tutto banale. Dato qualcosa di che assomiglia a una variabile casuale, fino a che punto è possibile assegnare le probabilità ai suoi valori (o spostare le probabilità esistenti attorno) in modo tale che la sua varianza sia uguale a un numero prespecificato r ? La risposta è che tutti i possibili valori r 0 sono ammissibile, fino ad un limite determinato dalla gamma di X .Xrr0X

Il potenziale interesse per tale analisi risiede nell'idea di cambiare una misura di probabilità, mantenendo fissa una variabile casuale, al fine di raggiungere un fine particolare. Sebbene questa applicazione sia semplice, mostra alcune delle idee alla base del teorema di Girsanov , un risultato fondamentale nella finanza matematica.


Riaffermiamo questa domanda in modo rigoroso e inequivocabile. supporre

X:(Ω,S)R

è una funzione misurabile definita su una misura spazio con sigma-algebra S . Per un dato numero reale r > 0 , quando è possibile trovare una misura di probabilità P su questo spazio per cui Var ( X ) = r ?ΩSr>0PVar(X)=r

Credo che la risposta sia che ciò è possibile quando . sup(X)inf(X)>2r (L'uguaglianza può valere se entrambi si raggiungono il supremum e l'infimo: cioè, in realtà sono il massimo e il minimo di) Quandosup(X)=oinf(X)=-, questa condizione non impone alcun limite ar, quindi sono possibili tutti i valori non negativi della varianza.Xsup(X)=inf(X)=r

La prova è di costruzione. Cominciamo con una versione semplice di esso, per prenderci cura dei dettagli e fissare l'idea di base, quindi passare alla costruzione effettiva.

  1. Sia nell'immagine di X : ciò significa che esiste un ω xΩ per il quale X ( ω x ) = x . Definire la funzione impostata P : S[ 0 , 1 ] come indicatore di ω x : ovvero P ( A ) = 0 se ω xA e P ( A ) = 1 quando ω xxXωxΩX(ωx)=xP:S[0,1]ωxP(A)=0ωxAP(A)=1 .ωxA

    Poiché , ovviamente P soddisfa i primi due assiomi di probabilità . È necessario mostrare che soddisfa il terzo; vale a dire che è sigma-additivo. Ma questo è quasi altrettanto ovvio: ogni volta che { E i , i = 1 , 2 , ... } è un insieme finito o numerabile di eventi reciprocamente esclusivi, allora nessuno dei due contiene ω x - nel qual caso P ( E i ) = 0 per tutti iP(Ω)=1P{Ei,i=1,2,}ωxP(Ei)=0i--o esattamente uno di questi contiene , nel qual caso P ( E j ) = 1 per qualche particolare j e altrimenti P ( E i ) = 0 per tutti i j . In ogni casoωxP(Ej)=1jP(Ei)=0ij

    P(iEi)=iP(Ei)

    perché entrambi i lati sono entrambi o entrambi 1 .01

    Poiché concentra tutta la probabilità su ω x , la distribuzione di X è concentrato su x e X deve avere varianza zero.PωxXxX

  2. Sia due valori nell'intervallo di X ; cioè X ( ω 1 ) = x 1 e X ( ω 2 ) = x 2 . In modo simile al passaggio precedente, definire una misura P come media ponderata degli indicatori di ω 1 e ω 2 . Utilizzare pesi non negativi 1 - p e p per p da determinare. Proprio come prima, troviamo che Px1x2XX(ω1)=x1X(ω2)=x2Pω1ω21pppP- essere una combinazione convessa delle misure dell'indicatore discusse in (1) - è una misura di probabilità. La distribuzione di rispetto a questa misura è una distribuzione di Bernoulli ( p ) che è stata ridimensionata di x 2 - x 1 e spostata di - x 1 . Poiché la varianza di una distribuzione di Bernoulli ( p ) è p ( 1 - p ) , la varianza di X deve essere ( x 2 - x 1 ) 2 p (X(p)x2x1x1(p)p(1p)X .(x2x1)2p(1p)

Una conseguenza immediata di (2) è che qualsiasi per cui esiste x 1x 2 nell'intervallo di X e 0 p < 1 per il qualerx1x2X0p<1

r=(x2x1)2p(1p)

può essere la varianza di . Dal momento che 0 p ( 1 - p ) 1 / 4 , questo implicaX0p(1p)1/4

2r=4rrp(1p)=(x2x1)2=x2x1sup(X)inf(X),

con l'uguaglianza che tiene se e solo se ha un massimo e un minimo.X

Viceversa, se supera questo rilegata ( sup ( X ) - inf ( X ) ) 2 / 4 , allora nessuna soluzione è possibile, in quanto già sappiamo che la varianza di ogni variabile casuale limitata non può superare un quarto quadrato della sua gamma.r(sup(X)inf(X))2/4


3
Amico, penso che tu sia ad un livello completamente diverso dall'OP.
Mark L. Stone,

4
@Mark Probabilmente. (Penso che tu abbia rilevato un soffio di umorismo molto secco qui.) Ma chiunque applichi il tag matematico-statistico al proprio post dovrebbe aspettarsi questo tipo di cose :-).
whuber

2
Mi viene in mente quando ho preso una classe di 4 studenti del compianto Prof Samuel Karlin (tra cui Karlin e la fama di Taylor tra le altre cose) su "Total Positivity". L'argomento della teoria dei giochi in qualche modo è emerso. Ha detto, oh, teoria dei giochi. Hai due misure non negative sigma-finite ...., Immagina ora di introdurre la teoria dei giochi in questo modo agli studenti di una classe economica di matricola in un college di arti liberali. Questo è ciò che mi ha fatto pensare il tuo post.
Mark L. Stone,

@Mark capito. Uno non lo farebbe e avrebbe successo. Come fai notare, scrivo qui per (un sottoinsieme di) lettori generici piuttosto che uno specifico. D'altra parte, il soggetto astratto non è difficile (a questo livello elementare) e ha dimostrato di essere accessibile ai sottoclassisti motivati ​​nei college di arti liberali. Vedi i commenti su stats.stackexchange.com/a/94876 per esempio.
whuber

4
@ MarkL.Stone Answers è molto più di chi si rivolge immediatamente (SE intende essere un repository di buone domande e buone risposte preziose per le persone successive con domande simili), e qui abbiamo già le risposte per una visione più elementare della domanda . Alcuni altri lettori potrebbero trarre qualcosa dalla presa meno elementare delle cose, quindi una varietà di stili e livelli di risposta rende la domanda utile a più persone.
Glen_b

10

Sì, è possibile trovare tale distribuzione. In effetti puoi prendere qualsiasi distribuzione con una varianza finita e ridimensionarla per adattarla alla tua condizione, perché

Var[cX]=c2Var[X]

Ad esempio, una distribuzione uniforme sull'intervallo ha varianza: σ 2 = 1[0,1] Quindi, una distribuzione uniforme nell'intervallo[0,1

σ2=112
avrà varianzar.[0,112r]r

ννξ=tμsμ,sξ

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.