Esempio di una distribuzione discreta non negativa in cui la media (o un altro momento) non esiste?


20

Stavo facendo un po 'di lavoro in Scipy e mi è venuta una conversazione con un membro del gruppo scipy principale se una variabile casuale discreta non negativa può avere un momento indefinito. Penso che abbia ragione, ma non ho una prova a portata di mano. Qualcuno può mostrare / dimostrare questa affermazione? (o se questa affermazione non è vera, confutare)

Non ho un esempio utile se la variabile casuale discreta ha il supporto su ma sembra che alcune versioni discretizzate della distribuzione di Cauchy dovrebbero servire da esempio per ottenere un momento indefinito. La condizione di non negatività (forse includendo ) è ciò che sembra rendere il problema impegnativo (almeno per me). 0Z0

Risposte:


15

Lascia che il CDF F uguale a 11/n agli interi n=1,2,, costante a tratti ovunque e soggetto a tutti i criteri per essere un CDF. L'attesa è

0(1F(x))dx=1/2+1/3+1/4+

che diverge. In questo senso il primo momento (e quindi tutti i momenti più alti) è infinito. (Vedi le osservazioni alla fine per ulteriori elaborazioni.)


Se non ti senti a tuo agio con questa notazione, nota che per n=1,2,3,,

PrF(n)=1n1n+1.

Questo definisce una distribuzione di probabilità poiché ogni termine è positivo e

n=1PrF(n)=n=1(1n1n+1)=limn11n+1=1.

L'attesa è

n=1nPrF(n)=n=1n(1n1n+1)=n=11n+1=1/2+1/3+1/4+

che diverge.

Questo modo di esprimere la risposta chiarisce che tutte le soluzioni sono ottenute da serie così divergenti. In effetti, se desideri che la distribuzione sia supportata su alcuni sottogruppi di valori positivi con probabilità sommano all'unità, allora per l'aspettativa di divergere la serie che lo esprime, vale a direx1,x2,,xn,,p1,p2,

(an)=(xnpn),

deve avere somme parziali divergenti.

Al contrario, ogni serie divergente di numeri non negativi è associata a molte distribuzioni positive discrete che hanno aspettative divergenti. (an) Ad esempio, dato è possibile applicare il seguente algoritmo per determinare le sequenze e . Inizia impostando e per(an)(xn)(pn)qn=2nyn=2nann=1,2,. Definiscicome l'insieme di tuttiche sorgono in questo modo, indicizza i suoi elementi comeΩynΩ={ω1,ω2,,ωi,},e definire una distribuzione di probabilità su diΩ

Pr(ωi)=nyn=ωiqn.

Questo funziona perché la somma di uguale alla somma di che è e Ω ha al massimo un numero numerabile di elementi positivi.pnqn,1,Ω

Come esempio, la serie (an)=(1,1/2,1,1/2,) ovviamente diverge. L'algoritmo dà

y1=2a1=2; y2=22a2=2; y3=23a3=8;

Pertanto

Ω={2,8,32,128,,22n+1,}

è l'insieme di forze positive dispari di 2 e

p1=q1+q2=3/4; p2=q3+q4=3/16; p3=q5+q6=3/64;


A proposito di momenti infiniti e inesistenti

Quando tutti i valori sono positivi, non esiste un momento "indefinito": tutti i momenti esistono, ma possono essere infiniti nel senso di una somma divergente (o integrale), come mostrato all'inizio di questa risposta.

Generalmente, tutti i momenti sono definiti per variabili casuali positive, perché la somma o l'integrale che li esprime converge in modo assoluto o diverge (è "infinito"). Al contrario di ciò, i momenti possono diventare indefiniti per le variabili che assumono valori positivi e negativi perché, per definizione dell'integrale di Lebesgue, il momento è la differenza tra un momento della parte positiva e un momento del valore assoluto della parte negativa. Se entrambi sono infiniti, la convergenza non è assoluta e si affronta il problema di sottrarre un infinito da un infinito: quello non esiste.


questo argomento fornisce un esempio di un momento infinito o un momento indefinito? Sto cercando un momento indefinito. Forse c'è una sottigliezza di momenti indefiniti contro infiniti che mi manca per comprendere appieno la tua risposta.
Lucas Roberts,

2
Quando tutti i valori sono positivi, non esiste un momento "indefinito": i momenti esistono tutti, ma possono essere infiniti.
whuber

4
Tutti i momenti sono definiti per variabili casuali positive. Alcuni possono essere infiniti, tutto qui. I momenti possono diventare indefiniti per le variabili che assumono valori positivi e negativi, perché - per definizione dell'integrale di Lebesgue - il momento è la differenza tra un momento della parte positiva e un momento del valore assoluto della parte negativa. Se entrambi sono infiniti, affronti il ​​problema di sottrarre un infinito da un infinito: quello non esiste.
whuber

1
"Tutti i momenti sono definiti per variabili casuali positive. Alcuni possono essere infiniti, tutto qui." Dato che il titolo della domanda riguarda momenti inesistenti , penso che molto di questo commento meriti di essere modificato nella risposta!
Silverfish

1
Immagino che avrei potuto trovare la risposta sepolta in questo post: stats.stackexchange.com/questions/243150/…
Lucas Roberts,

39

Ecco un famoso esempio: assume il valore 2 k con probabilità 2 - k , per ogni numero intero k 1 . Quindi X assume valori in (un sottoinsieme di) numeri interi positivi; la massa totale è k = 1 2 - k = 1 , ma la sua aspettativa è E ( X ) = k = 1 2 k P ( X = 2 k ) = X2k2kk1Xk=12k=1 Questa variabile casualeXsorge nelparadosso di San Pietroburgo.

E(X)=k=12kP(X=2k)=k=11=.
X

6
+1 Mi piace questo per le sue connessioni storiche e filosofiche.
whuber

Risoluzione del paradosso: se vinci ∞ sei schiacciato dalle forze G.
Giosuè,

8
  1. La distribuzione zeta è una distribuzione discreta abbastanza nota sugli interi positivi che non ha media finita (per ).1<θ2

    P(X=x|θ)=1ζ(θ)xθ,x=1,2,...,θ>1

    dove la costante normalizzante coinvolge , la funzione zeta di Riemannζ()

    θ=2

    Un'altra distribuzione con un comportamento simile della coda è la distribuzione Yule-Simon .

  2. 0<α1

    P(X=x|α,β,r)=Γ(r+x)x!Γ(r)B(α+r,β+x)B(α,β),x=0,1,2...α,β,r>0


0

some discretized version of the Cauchy distribution

Yes, if you take p(n) as being the average value of the Cauchy distribution in the interval around n, then clearly its zeroth moment is the same as that of the Cauchy distribution, and its first moment asymptotically approaches the first moment of the Cauchy distribution. As far as "the interval around n", it doesn't really matter how you define that; take (n1,n], [n,n+1), [n.5,n+.5), vel cetera, and it will work. For positive integers, you can also take p(n)=6(nπ)2. The zeroth moment sums to one, and the first moment is the sum of 6nπ2, which diverges.

And in fact for any polynomial p(n), ce ne sono alcuni c tale che cp(n) somma a 1. Se poi prendiamo il Kth momento, dove K è l'ordine di p(n), che divergeranno.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.