Per un dato numero costante (es. 4), è possibile trovare una distribuzione di probabilità per , in modo che abbiamo ?
Per un dato numero costante (es. 4), è possibile trovare una distribuzione di probabilità per , in modo che abbiamo ?
Risposte:
Considerando attentamente i casi per : se r = 0 la distribuzione è degenerata, ma X potrebbe avere qualsiasi mezzo. Cioè, Pr ( X = μ ) = 1 e Pr ( X = c ) = 0 per ogni c ≠ μ . Così possiamo trovare molte distribuzioni possibili per X , ma sono indicizzati da, e completamente specificato da, u ∈ R .
Se , non è possibile trovare alcuna distribuzione, poiché V a r ( X ) = E ( X - μ X ) 2 ≥ 0 .
Per , la risposta dipenderà da quello che ulteriori informazioni si sa di X . Ad esempio, se X è noto per avere media μ , quindi per qualsiasi μ ∈ R e r > 0 possiamo trovare una distribuzione con questi momenti prendendo X ∼ N ( μ , r ) . Questa non è una soluzione unica al problema di abbinare media e varianza, ma è l'unica soluzione normalmente distribuita (e di tutte le possibili soluzioni, questa è quella che massimizza l'entropia, come sottolinea Daniel). Se anche tu volessi abbinare, ad esempio, il terzo momento centraleo superiore, dovresti prendere in considerazione una gamma più ampia di distribuzioni di probabilità.
Supponiamo invece di avere alcune informazioni sulla distribuzione di piuttosto che sui suoi momenti. Ad esempio, se sappiamo che X segue una distribuzione di Poisson, la soluzione unica sarebbe X ∼ P o i s s o n ( r ) . Se sappiamo che X segue una distribuzione esponenziale, allora di nuovo esiste una soluzione unica X ∼ E x p o n e n t i a l ( 1, dove abbiamo trovato il parametro risolvendoVar(X)=r=1 .
In altri casi possiamo trovare un'intera famiglia di soluzioni. Se sappiamo che segue una distribuzione rettangolare (uniforme continua), allora possiamo trovare una larghezza unica w per la distribuzione risolvendo V a r ( X ) = r = w 2 . Ma ci sarà un'intera famiglia di soluzioni,X~U(una,un+w)parametized daun∈R- le distribuzioni in questo set sono tutte le traduzioni di ogni altro. Allo stesso modo, seXè normale, qualsiasi distribuzioneX∼N(μ,r) funzionerebbe (quindi abbiamo un intero set di soluzioni indicizzate daμ, che di nuovo può essere qualsiasi numero reale, e di nuovo la famiglia sono tutte traduzioni l'una dell'altra ). SeXsegue unadistribuzione gammaquindi, utilizzando la parametrizzazione della scala di forma, possiamo ottenere un'intera famiglia di soluzioni, parametrizzato daθ>0. I membri di questa famiglia non sono traduzioni reciproche. Per aiutare a visualizzare come potrebbe apparire una "famiglia di soluzioni", ecco alcuni esempi di distribuzioni normali indicizzate daμ, quindi distribuzioni gamma indicizzate daθ, tutte con varianza uguale a quattro, corrispondente all'esempior=4nella tua domanda .
D'altra parte, per alcune distribuzioni potrebbe essere o non essere possibile trovare una soluzione, a seconda del valore di . Ad esempio se X deve essere una variabile di Bernoulli, allora per 0 ≤ r < 0,25 ci sono due possibili soluzioni X ∼ B e r n o u l l i ( p ) perché ci sono due probabilità p che risolvono l'equazione V a r ( X ) = r = p ( 1 - p , e in effetti queste due probabilità sono complementari, cioè p 1 + p 2 = 1 . Per r = 0,25 esiste solo la soluzione unica p = 0,5 e per r > 0,25 nessuna distribuzione di Bernoulli ha varianza sufficientemente elevata.
Sento che dovrei anche menzionare il caso . Ci sono soluzioni anche per questo caso, ad esempio una distribuzione t di Student con due gradi di libertà.
Codice R per grafici
require(ggplot2)
x.df <- data.frame(x = rep(seq(from=-8, to=8, length=100), times=5),
mu = rep(c(-4, -2, 0, 2, 4), each=100))
x.df$pdf <- dnorm(mean=x.df$mu, x.df$x)
ggplot(x.df, aes(x=x, y=pdf, group=factor(mu), colour=factor(mu))) + theme_bw() +
geom_line(size=1) + scale_colour_brewer(name=expression(mu), palette="Set1") +
theme(legend.key = element_blank()) + ggtitle("Normal distributions with variance 4")
x.df <- data.frame(x = rep(seq(from=0, to=20, length=1000), times=5),
theta = rep(c(0.25, 0.5, 1, 2, 4), each=1000))
x.df$pdf <- dgamma(x.df$x, shape=4/(x.df$theta)^2, scale=x.df$theta)
ggplot(x.df, aes(x=x, y=pdf, group=factor(theta), colour=factor(theta))) + theme_bw() +
geom_line(size=1) + scale_colour_brewer(name=expression(theta), palette="Set1") +
theme(legend.key = element_blank()) + ggtitle("Gamma distributions with variance 4") +
coord_cartesian(ylim = c(0, 1))
Supponendo che intendi "è possibile trovare una distribuzione di probabilità per ", allora la risposta è sì, poiché non hai specificato alcun criterio che X debba soddisfare. In effetti esiste un numero infinito di possibili distribuzioni che soddisferebbero questa condizione. Considera solo una distribuzione normale, N ( x ; μ , σ 2 ) . Puoi impostare σ 2 = r e μ può assumere qualsiasi valore ti piaccia - avrai quindi V a r [ X ] = r come richiesto.
In effetti, la distribuzione Normale è piuttosto speciale in questo senso in quanto è la massima distribuzione di probabilità entropica per una data media e varianza.
Questa domanda può essere interpretata in un modo che la rende interessante e non del tutto banale. Dato qualcosa di che assomiglia a una variabile casuale, fino a che punto è possibile assegnare le probabilità ai suoi valori (o spostare le probabilità esistenti attorno) in modo tale che la sua varianza sia uguale a un numero prespecificato r ? La risposta è che tutti i possibili valori r ≥ 0 sono ammissibile, fino ad un limite determinato dalla gamma di X .
Il potenziale interesse per tale analisi risiede nell'idea di cambiare una misura di probabilità, mantenendo fissa una variabile casuale, al fine di raggiungere un fine particolare. Sebbene questa applicazione sia semplice, mostra alcune delle idee alla base del teorema di Girsanov , un risultato fondamentale nella finanza matematica.
Riaffermiamo questa domanda in modo rigoroso e inequivocabile. supporre
è una funzione misurabile definita su una misura spazio con sigma-algebra S . Per un dato numero reale r > 0 , quando è possibile trovare una misura di probabilità P su questo spazio per cui Var ( X ) = r ?
Credo che la risposta sia che ciò è possibile quando . (L'uguaglianza può valere se entrambi si raggiungono il supremum e l'infimo: cioè, in realtà sono il massimo e il minimo di) Quandosup(X)=∞oinf(X)=-∞, questa condizione non impone alcun limite ar, quindi sono possibili tutti i valori non negativi della varianza.
La prova è di costruzione. Cominciamo con una versione semplice di esso, per prenderci cura dei dettagli e fissare l'idea di base, quindi passare alla costruzione effettiva.
Sia nell'immagine di X : ciò significa che esiste un ω x ∈ Ω per il quale X ( ω x ) = x . Definire la funzione impostata P : S → [ 0 , 1 ] come indicatore di ω x : ovvero P ( A ) = 0 se ω x ∉ A e P ( A ) = 1 quando ω x .
Poiché , ovviamente P soddisfa i primi due assiomi di probabilità . È necessario mostrare che soddisfa il terzo; vale a dire che è sigma-additivo. Ma questo è quasi altrettanto ovvio: ogni volta che { E i , i = 1 , 2 , ... } è un insieme finito o numerabile di eventi reciprocamente esclusivi, allora nessuno dei due contiene ω x - nel qual caso P ( E i ) = 0 per tutti i--o esattamente uno di questi contiene , nel qual caso P ( E j ) = 1 per qualche particolare j e altrimenti P ( E i ) = 0 per tutti i ≠ j . In ogni caso
perché entrambi i lati sono entrambi o entrambi 1 .
Poiché concentra tutta la probabilità su ω x , la distribuzione di X è concentrato su x e X deve avere varianza zero.
Sia due valori nell'intervallo di X ; cioè X ( ω 1 ) = x 1 e X ( ω 2 ) = x 2 . In modo simile al passaggio precedente, definire una misura P come media ponderata degli indicatori di ω 1 e ω 2 . Utilizzare pesi non negativi 1 - p e p per p da determinare. Proprio come prima, troviamo che P- essere una combinazione convessa delle misure dell'indicatore discusse in (1) - è una misura di probabilità. La distribuzione di rispetto a questa misura è una distribuzione di Bernoulli ( p ) che è stata ridimensionata di x 2 - x 1 e spostata di - x 1 . Poiché la varianza di una distribuzione di Bernoulli ( p ) è p ( 1 - p ) , la varianza di X deve essere ( x 2 - x 1 ) 2 p ( .
Una conseguenza immediata di (2) è che qualsiasi per cui esiste x 1 ≤ x 2 nell'intervallo di X e 0 ≤ p < 1 per il quale
può essere la varianza di . Dal momento che 0 ≤ p ( 1 - p ) ≤ 1 / 4 , questo implica
con l'uguaglianza che tiene se e solo se ha un massimo e un minimo.
Viceversa, se supera questo rilegata ( sup ( X ) - inf ( X ) ) 2 / 4 , allora nessuna soluzione è possibile, in quanto già sappiamo che la varianza di ogni variabile casuale limitata non può superare un quarto quadrato della sua gamma.
Sì, è possibile trovare tale distribuzione. In effetti puoi prendere qualsiasi distribuzione con una varianza finita e ridimensionarla per adattarla alla tua condizione, perché
Ad esempio, una distribuzione uniforme sull'intervallo ha varianza: σ 2 = 1 Quindi, una distribuzione uniforme nell'intervallo[0,1