Qual è la differenza tra varianza finita e infinita


33

Qual è la differenza tra varianza finita e infinita? La mia conoscenza delle statistiche è piuttosto semplice; Wikipedia / Google non è stato di grande aiuto qui.


8
Le distribuzioni con varianza infinita sono a coda pesante ; ci sono molti valori anomali e possono avere proprietà diverse da quelle a cui si è abituati a vedere. Ad esempio, la media dei campioni prelevati da una distribuzione di Cauchy ha la stessa distribuzione (di Cauchy) dei singoli campioni. Ciò è abbastanza diverso dalla solita convinzione che la media del campione sia uno "stimatore" migliore di ogni singolo campione.
Dilip Sarwate,

4
No, la coda pesante non è la stessa cosa che avere una varianza infinita, o almeno, non secondo me. Tuttavia, non sono uno statistico e quindi dovresti aspettare una risposta più autorevole da parte di utenti di alto livello in questo forum.
Dilip Sarwate,

4
La varianza infinita si verifica quando l'integrale (somma) che definisce la varianza della popolazione aumenta oltre ogni limite finito quando viene preso il limite. Qualche discussione di esempi qui
Glen_b -Restate Monica

2
Penso soprattutto, la maggior parte dei teoremi limite centrali non riescono a valere per una tale popolazione e quindi alcuni risultati comuni crolleranno.
Henry.L,

1
Punto importante: se la varianza di una popolazione è infinita, ma la varianza di un campione è finita, allora qualsiasi stima della varianza o della deviazione standard della popolazione usando una statistica campione come , o , quindi sarà piuttosto distorto. Poiché così tante statistiche di test si basano su una misura di effetto normalizzata su un errore standard stimato dell'effetto e poiché così tanti EC sono basati su un ridimensionamento di un errore standard stimato, ciò significa che probabilmente l'inferenza statistica sulle variabili con varianza infinita essere piuttosto male di parte . s ss2ssn
Alexis,

Risposte:


48

Cosa significa che una variabile casuale ha "varianza infinita"? Cosa significa che una variabile casuale ha aspettative infinite? La spiegazione in entrambi i casi è piuttosto simile, quindi cominciamo con il caso dell'aspettativa, e poi la varianza dopo.

Sia una variabile casuale continua (RV) (le nostre conclusioni saranno valide più in generale, per il caso discreto, sostituire integrale con somma). Per semplificare l'esposizione, supponiamo che X 0 .XX0

La sua aspettativa è definita dall'integrale

EX=0xf(x)dx
Affinché quel limite sia finito, il contributo della coda deve svanire, cioè dobbiamo avere lim a a x f ( x )
0xf(x)dx=lima0axf(x)dx
Una condizione necessaria (ma non sufficiente) affinché ciò avvenga è lim x x f ( x ) = 0 . Ciò che dice la condizione sopra visualizzata, è che ilcontributo alle aspettative dalla coda (destra) deve svanire. In caso contrario, l'aspettativaè dominata dai contributi di valori realizzati arbitrariamente grandi. In pratica, ciò significherà che i mezzi empirici saranno molto instabili, perchésaranno dominati dai rarissimi grandissimi valori realizzati
limaaxf(x)dx=0
limxxf(x)=0. E nota che questa instabilità dei mezzi di campionamento non scomparirà con grandi campioni --- è una parte incorporata del modello!

In molte situazioni, sembra irrealistico. Diciamo un modello di assicurazione (sulla vita), quindi modella una vita (umana). Sappiamo che, diciamo che X > 1000 non si verifica, ma in pratica usiamo modelli senza un limite superiore. Il motivo è chiaro: No duro limite superiore è noto, se una persona è (diciamo) 110 anni, non v'è alcuna ragione per cui non può vivere un altro anno! Quindi un modello con un limite superiore rigido sembra artificiale. Tuttavia, non vogliamo che l'estrema coda superiore abbia molta influenza.XX>1000

Se ha un'aspettativa limitata, allora possiamo cambiare il modello in modo che abbia un limite superiore rigido senza un'indebita influenza sul modello. In situazioni con un limite superiore sfocato che sembra buono. Se il modello ha aspettative infinite, qualsiasi limite superiore rigido che introduciamo nel modello avrà conseguenze drammatiche! Questa è la vera importanza di infinite aspettative.X

Con aspettative limitate, possiamo essere confusi riguardo ai limiti superiori. Con infinite aspettative, non possiamo .

Ora, lo stesso si può dire della varianza infinita, mutatis mutandi.

Per chiarire, vediamo un esempio. Per l'esempio usiamo la distribuzione di Pareto, implementata nel pacchetto R (su CRAN) attuar come distribuzione di Pareto a parametro singolo pareto1 --- nota anche come distribuzione di tipo 1 di Pareto. Ha la funzione di densità di probabilità data da per alcuni parametrim>0,α>0. Quandoα>1l'attesa esiste ed è data daα

f(x)={αmαxα+1,xm0,x<m
m>0,α>0α>1. Quandoα1l'attesa non esiste, o come diciamo, è infinita, perché l'integrale che la definisce diverge all'infinito. Possiamo definire ladistribuzionedelPrimo momento(vedi il postQuando useremmo i tantili e il mediale, piuttosto che i quantili e la mediana? Per alcune informazioni e riferimenti) come E(M)= M m xf(x)αα1mα1 (questo esiste indipendentemente dal fatto che esista l'attesa stessa). (Modifica successiva: ho inventato il nome "distribuzione del primo momento, in seguito ho appreso che questo è legato a ciò che è" ufficialmente "nomimomenti parziali).
E(M)=mMxf(x)dx=αα1(mmαMα1)

Quando esiste l'aspettativa ( ) possiamo dividerlo per ottenere la relativa distribuzione del primo momento, data da E r ( M ) = E ( m ) / E ( ) = 1 - ( mα>1

Er(M)=E(m)/E()=1(mM)α1
αm=1,α=1.2Er(M)
### Function for opening new plot file:
open_png  <-  function(filename) png(filename=filename,
                                     type="cairo-png")

library(actuar) # from CRAN
### Code for Pareto type I distribution:
# First plotting density and "graphical moments" using ideas from http://www.quantdec.com/envstats/notes/class_06/properties.htm   and used some times at cross validated

m  <-  1.0
alpha <- 1.2
# Expectation:
E   <-  m * (alpha/(alpha-1))
# upper limit for plots:
upper  <- qpareto1(0.99, alpha, m)   
#
open_png("first_moment_dist1.png")
Er  <- function(M, m, alpha) 1.0 - (m/M)^(alpha-1.0)
### Inverse relative first moment distribution function,  giving
#   what we may call "expectation quantiles":
Er_inv  <-   function(eq, m, alpha) m*exp(log(1.0-eq)/(1-alpha))     

plot(function(M) Er(M, m, alpha), from=1.0,  to=upper)
plot(function(M) ppareto1(M, alpha, m), from=1.0,  to=upper, add=TRUE,  col="red")
dev.off()

che produce questa trama:

inserisci qui la descrizione dell'immagine

μα>2

La funzione Er_inv definita sopra è la distribuzione inversa del primo momento relativa, un analogo alla funzione quantile. Abbiamo:

> ### What this plot shows very clearly is that most of the contribution to the expectation come from the very extreme right tail!
# Example   
eq  <-  Er_inv(0.5, m, alpha)
ppareto1(eq, alpha, m)
eq

> > > [1] 0.984375
> [1] 32
> 

μn=5

set.seed(1234)
n  <-  5
N  <-  10000000  # Number of simulation replicas
means  <-  replicate(N,  mean(rpareto1(n, alpha, m) ))


> mean(means)
[1] 5.846645
> median(means)
[1] 2.658925
> min(means)
[1] 1.014836
> max(means)
[1] 633004.5
length(means[means <=100])
[1] 9970136

Per ottenere un grafico leggibile mostriamo solo l'istogramma per la parte del campione con valori inferiori a 100, che è una parte molto grande del campione.

open_png("mean_sim_hist1.png")
hist(means[means<=100],  breaks=100, probability=TRUE)
dev.off()

inserisci qui la descrizione dell'immagine

La distribuzione dei mezzi aritmetici è molto distorta,

> sum(means <= 6)/N
[1] 0.8596413
> 

quasi l'86% dei mezzi empirici sono inferiori o uguali alla media teorica, l'attesa. Questo è ciò che dovremmo aspettarci, poiché la maggior parte del contributo alla media proviene dall'estrema coda superiore, che non è rappresentata nella maggior parte dei campioni .

Dobbiamo tornare indietro per rivalutare la nostra precedente conclusione. Mentre l'esistenza della media rende possibile essere confusi sui limiti superiori, vediamo che quando "la media esiste appena", il che significa che l'integrale è lentamente convergente, non possiamo essere così confusi sui limiti superiori . Gli integrali lentamente convergenti hanno la conseguenza che potrebbe essere meglio usare metodi che non presuppongono l'esistenza delle aspettative . Quando l'integrale converge molto lentamente, è in pratica come se non convergesse affatto. I vantaggi pratici che derivano da un integrale convergente è una chimera nel caso lentamente convergente! Questo è un modo per comprendere le conclusioni di NN Taleb in http://fooledbyrandomness.com/complexityAugust-06.pdf


2
Risposta fantastica.
Karl,

2

La varianza è la misura della dispersione della distribuzione dei valori di una variabile casuale. Non è l'unica misura di questo tipo, ad esempio la deviazione assoluta media è una delle alternative.

La varianza infinita significa che i valori casuali non tendono a concentrarsi troppo intorno alla media . Potrebbe significare che esiste una probabilità abbastanza grande che il prossimo numero casuale sarà molto lontano dalla media.

Le distribuzioni come Normale (gaussiana) possono produrre numeri casuali molto lontani dalla media, ma la probabilità di tali eventi diminuisce molto rapidamente con l'entità della deviazione.

A questo proposito, quando si guarda alla trama della distribuzione di Cauchy o di una distribuzione gaussiana (normale), non sembrano molto diversi visivamente. Tuttavia, se provi a calcolare la varianza della distribuzione di Cauchy sarà infinita, mentre quella di Gaussian è limitata. Quindi, la distribuzione normale è più stretta rispetto alla sua media rispetto a Cauchy.

A proposito, se parli con i matematici, insisteranno sul fatto che la distribuzione di Cauchy non ha una media ben definita, che è infinita. Questo sembra ridicolo per i fisici che sottolineano il fatto che la simmetrica di Cauchy, quindi, è destinata ad avere un mezzo. In questo caso sostengono che il problema è nella tua definizione di media, non nella distribuzione di Cauchy.


2

1
@kjetilbhalvorsen, "nessun matematico direbbe che il Cauchy ha una media infinita" - che la media non è ben definita è esattamente quello che mi è stato detto dal mio professore di statistica, mentre il mio consulente Physcis teorico era sorpreso che ci fosse anche una domanda sulla media, "ovviamente è zero, e se non sei d'accordo, allora c'è qualcosa che non va nella tua definizione di media"
Aksakal,

Gli hai chiesto della sua definizione del mezzo?
kjetil b halvorsen,

@kjetilbhalvorsen, integrale di Riemann se parli di matematica prof. La sua tesi è che nella somma di Riemann non si definisce un certo ordine di somma o suddivisione della somma, quindi la somma sarà infinita. Il punto dei fisici è una simmetria, chiaramente, "deve essere zero"
Aksakal,

1
Allora forse puoi dirgli che ha definito la mediana, non la media.
kjetil b halvorsen,

2

Un modo alternativo di guardare è tramite la funzione quantile.

Q(F(x))=x

Quindi possiamo calcolare un momento o un'aspettativa

E(T(x))=T(x)f(x)dx

f(x)dx=dF

E(T(x))=01T(Q(F))dF

T(x)=xx=0T(x)<0x=0π

Cauchy contro normale

Le curve nell'immagine mostrano quanto ciascun quantile contribuisce al calcolo.

T(Q(F))

Questo infinito potrebbe non essere così strano poiché la distanza (media) o quadrata (varianza) dell'integrando stesso può diventare infinita. È solo una questione di quanto peso , quanta percentuale di F hanno quelle code infinite.

Nella somma / integrazione della distanza da zero (media) o distanza quadrata dalla media (varianza) un singolo punto molto lontano avrà più influenza sulla distanza media (o distanza quadrata) rispetto a molti punti vicini.

Pertanto, quando ci spostiamo verso l'infinito, la densità può diminuire, ma l'influenza sulla somma di una quantità (crescente), ad esempio la distanza o la distanza al quadrato, non cambia necessariamente.

x2x12n((2x)n)212n


1

X

p(k)=c/|k|3kZ{0}p(0)=0c=(2ζ(3))1:=(2k=11/k3)1<EX∣<2k=1k2/|k|3=2k=1k1=

ζ(x):=k=1kx


4
0
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.