Cosa sono esattamente i momenti? Come vengono derivati?


19

In genere siamo introdotti al metodo degli stimatori dei momenti "equiparando i momenti della popolazione alla loro controparte campionaria" fino a quando non abbiamo stimato tutti i parametri della popolazione; in modo che, nel caso di una distribuzione normale, avremmo bisogno solo del primo e del secondo momento perché descrivono pienamente questa distribuzione.

E(X)=μΣio=1nXio/n=X¯

E(X2)=μ2+σ2Σio=1nXio2/n

E potremmo teoricamente calcolare fino a momenti aggiuntivi come:n

E(Xr)Σio=1nXior/n

Come posso costruire l'intuizione per quali momenti sono realmente? So che esistono come concetto in fisica e in matematica, ma non trovo né direttamente applicabile, soprattutto perché non so come trasformare l'astrazione dal concetto di massa a un punto dati. Il termine sembra essere usato in modo specifico nelle statistiche, che differisce dall'uso in altre discipline.

Quale caratteristica dei miei dati determina quanti ( ) momenti ci sono complessivamente?r


7
Il termine indica la stessa cosa che fa in fisica, quando applicato alla distribuzione di probabilità. Vedi qui , che ha l'equazione , "dove ρ è la distribuzione della densità di carica, massa o qualunque quantità venga presa in considerazione". Quando la "cosa considerata" è la densità di probabilità, si ha il momento corrispondente in probabilità. Questi sono momenti grezzi (momenti sull'origine). In confronto ... (ctd)μn=rnρ(r)drρ
Glen_b -Reinstate Monica

2
I momenti sono caratteristiche parametrizzate della distribuzione di variabili casuali, come i quantili. I momenti sono parametrizzati dai numeri naturali e caratterizzano completamente una distribuzione (vedi funzione di generazione del momento ). Questo non esclude che per alcune distribuzioni ci potrebbe essere una perfetta dipendenza funzionale tra i momenti, quindi non tutti i momenti sono sempre necessari per caratterizzare la distribuzione. (1/2)
Tchakravarty,

I momenti dipendono funzionalmente dai primi due per la distribuzione normale, quindi i primi due sono sufficienti per caratterizzare la distribuzione, compresa la media e la varianza. (2/2)3
Tchakravarty,

5
(ctd) ... i momenti in matematica sono gli stessi ( ), tranne per c piuttosto che 0 (cioè solo una forma generalizzata di quella fisica - ma poiché sono le stesse con un semplice cambio di origine, un fisico direbbe giustamente "come è diverso?"). Questi sono glistessidella probabilità, quando f è una densità. Per me, tutti e tre parlano della stessa cosa quando dicono "momenti", non cose diverse. μn=(xc)nf(x)dxcf
Glen_b

3
Sono sicuro che puoi trovare le risposte nei numerosi thread che sono stati pubblicati su momenti e intuizione . La statistica usa i momenti esattamente nello stesso modo in cui sono usati in fisica e matematica - è lo stesso concetto con la stessa definizione in tutti e tre i campi.
whuber

Risposte:


17

È passato molto tempo da quando ho seguito un corso di fisica, quindi fatemi sapere se qualcosa di tutto ciò non è corretto.

Descrizione generale dei momenti con analoghi fisici

Prendere una variabile casuale, . Il n momento -esimo X circa c è: m n ( c ) = E [ ( X - c ) n ] Questo corrisponde esattamente al senso fisico di un momento. Immagina X come una raccolta di punti lungo la linea reale con la densità data dal pdf. Posiziona un fulcro sotto questa linea in c e inizia a calcolare i momenti relativi a quel fulcro, e i calcoli corrisponderanno esattamente ai momenti statistici.XnXc

mn(c)=E[(X-c)n]
Xc

La maggior parte del tempo, il momento -esimo X si riferisce al momento circa 0 (momenti in cui il fulcro è posto a 0): m n = E [ X n ] Il n -esimo centrale momento di X è: m n = m n ( m 1 ) = E [ ( X - m 1 ) n ]nX

mn=E[Xn]
nX
m^n=mn(m1)=E[(X-m1)n]
Ciò corrisponde ai momenti in cui il fulcro è posto al centro della massa, quindi la distribuzione è equilibrata. Permette di interpretare più facilmente i momenti, come vedremo di seguito. Il primo momento centrale sarà sempre zero, perché la distribuzione è bilanciata.

Il -esimo standardizzato momento di X è: ~ m n = m nnX

m~n=m^n(m^2)n=E[(X-m1)n](E[(X-m1)2])n

Momenti comunemente usati

Per ogni distribuzione ci sono potenzialmente un numero infinito di momenti. Un numero sufficiente di momenti caratterizzerà e distribuirà quasi sempre (derivare le condizioni necessarie affinché questo sia certo fa parte del problema del momento ). Di solito si parla molto di quattro momenti nelle statistiche:

  1. Media : il 1 ° momento (centrato attorno allo zero). È il centro di massa della distribuzione, o in alternativa è proporzionale al momento della coppia della distribuzione rispetto a un fulcro a 0.
  2. X
  3. Skewness : il terzo momento centrale (a volte standardizzato). Una misura dell'inclinazione di una distribuzione in una direzione o nell'altra. Rispetto a una distribuzione normale (che non ha inclinazione), la distribuzione distorta positivamente ha una bassa probabilità di esiti estremamente alti, le distribuzioni negativamente inclinate hanno una piccola probabilità di esiti estremamente bassi. Gli analoghi fisici sono difficili, ma misurano vagamente l'asimmetria di una distribuzione. Ad esempio, la figura seguente è tratta da Wikipedia . Skewness, tratto da Wikipedia
  4. XKurtosis, anche da Wikipedia

Raramente parliamo di momenti al di là della curtosi, proprio perché c'è pochissima intuizione per loro. Questo è simile ai fisici che si fermano dopo il secondo momento.


6

Questo è un po 'un vecchio filo, ma desidero correggere un errore nel commento di Fg Nu che ha scritto "I momenti sono parametrizzati dai numeri naturali e caratterizzano completamente una distribuzione".

I momenti NON caratterizzano completamente una distribuzione. In particolare, la conoscenza di tutto il numero infinito di momenti, anche se esistenti, non determina necessariamente in modo univoco la distribuzione.

Secondo il mio libro di probabilità preferito, Feller "Un'introduzione alla teoria della probabilità e alle sue applicazioni Vol II" (vedi la mia risposta agli esempi di distribuzioni comuni nella vita reale ), sezione VII.3 esempio alle pagine 227-228, il Lognormal non è determinato dai suoi momenti, il che significa che ci sono altre distribuzioni che hanno un numero infinito di momenti uguali al Lognormale, ma con diverse funzioni di distribuzione. Come è noto, la funzione di generazione del momento non esiste per il Lognormal, né può esserlo per queste altre distribuzioni che possiedono gli stessi momenti.

X

Σn=1(E[X2n])-1/(2n)

diverge. Nota che questo non è un if e solo if. Questa condizione non vale per il Lognormale, e in effetti non è determinata dai suoi momenti.

D'altra parte, le distribuzioni (variabili casuali) che condividono un numero infinito di momenti, possono differire solo di molto, a causa delle disuguaglianze che possono essere derivate dai loro momenti.


Ciò è notevolmente semplificato quando la distribuzione è limitata, nel qual caso i momenti determinano sempre la distribuzione completamente (in modo univoco).
Alex R.,

@Alex Questa è una conseguenza immediata del risultato citato in Feller.
whuber

Non è del tutto corretto affermare che la funzione di generazione del momento non esiste per il lognormale. I teoremi più utili su mgf suppongono che esista in un intervallo aperto contenente zero, e in senso stretto non esiste. Ma esiste in un raggio che emana da zero !, e che fornisce anche informazioni utili.
kjetil b halvorsen,

@ kjetil b halvorsen, puoi descrivere (alcune) delle informazioni utili che potresti ottenere dall'esistenza dell'MGF di un lognormale su un raggio che emana da zero? Quale raggio sarebbe?
Mark L. Stone,

Bump del commento sopra come domanda a @kjetil b halvorsen ..
Mark L. Stone

2

Un corollario delle osservazioni di Glen_b è che il primo momento, la media, corrisponde al centro di gravità di un oggetto fisico, e il secondo momento attorno alla media, la varianza, corrisponde al suo momento di inerzia. Dopo quello, sei da solo.


3
E[X2]=X2f(X)dX vun'r[X]=E[(X-E[X])2]=(X-E[X])2f(X)dX

0

Un albero binomiale ha due rami ciascuno con probabilmente 0,5. In realtà, p = 0,5 e q = 1-0,5 = 0,5. Questo genera una distribuzione normale con una massa di probabilità uniformemente distribuita.

In realtà, dobbiamo presumere che ogni livello dell'albero sia completo. Quando dividiamo i dati in bin, otteniamo un numero reale dalla divisione, ma arrotondiamo per eccesso. Bene, questo è un livello incompleto, quindi non finiamo con un istogramma che si avvicina al normale.

Cambia le probabilità di ramificazione in p = 0.9999 e q = 0.0001 e questo ci rende normali. La massa di probabilità si è spostata. Ciò spiega l'asimmetria.

Avere livelli o bidoni incompleti inferiori a 2 ^ n genera alberi binomiali con aree senza massa di probabilità. Questo ci dà la curtosi.


Risposta al commento:

Quando stavo parlando di determinare il numero di bin, arrotondare al numero intero successivo.

Le macchine Quincunx rilasciano sfere che arrivano alla fine per approssimare la normale distribuzione tramite il binomio. Diverse ipotesi sono fatte da tale macchina: 1) il numero di bin è finito, 2) l'albero sottostante è binario e 3) le probabilità sono fisse. La macchina Quincunx al Museum of Mathematics di New York, consente all'utente di modificare dinamicamente le probabilità. Le probabilità possono cambiare in qualsiasi momento, anche prima che il livello corrente sia terminato. Da qui l'idea di non riempire i contenitori.

A differenza di quello che ho detto nella mia risposta originale quando hai un vuoto nell'albero, la distribuzione dimostra curtosi.

Sto guardando questo dal punto di vista dei sistemi generativi. Uso un triangolo per riassumere gli alberi delle decisioni. Quando viene presa una nuova decisione, vengono aggiunti più bin alla base del triangolo e, in termini di distribuzione, nelle code. Il taglio delle sottostrutture dall'albero lascerebbe vuoti nella massa di probabilità della distribuzione.

Ho solo risposto per darti un senso intuitivo. Etichette? Ho usato Excel e giocato con le probabilità nel binomio e generato le inclinazioni previste. Non l'ho fatto con la curtosi, non aiuta che siamo costretti a pensare alla massa di probabilità come statica mentre usiamo il linguaggio che suggerisce il movimento. I dati o le sfere sottostanti causano la curtosi. Quindi, lo analizziamo in modo diverso e lo attribuiamo per modellare termini descrittivi come centro, spalla e coda. Le uniche cose con cui dobbiamo lavorare sono i bidoni. I contenitori vivono una vita dinamica anche se i dati non possono.


2
Questo è intrigante, ma terribilmente abbozzato. Quali sono le etichette sul tuo albero binomiale, per esempio? Sarebbe meglio che fosse un albero infinito se vuoi ottenere una distribuzione normale - ma poi le etichette ovvie (usando una passeggiata casuale o usando rappresentazioni binarie di numeri reali) non portano affatto a distribuzioni normali. Senza questi dettagli troppo è lasciato all'immaginazione dei lettori. Potresti approfondirli?
whuber
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.