Che cos'è una funzione di generazione del momento (MGF)? Puoi spiegarlo in parole povere e con un esempio semplice e facile? Per favore, limitare il più possibile l'uso delle notazioni matematiche formali.
La distribuzione di Cauchy è in qualche modo una distribuzione "imprevedibile"? Ho provato a farlo cs <- function(n) { return(rcauchy(n,0,1)) } in R per una moltitudine di n valori e ho notato che generano valori abbastanza imprevedibili di tanto in tanto. Confronta quello ad es as <- function(n) { return(rnorm(n,0,1)) …
In "Data Analysis" di DS Sivia, c'è una derivazione della distribuzione di Poisson, dalla distribuzione binomiale. Sostengono che la distribuzione di Poisson è il caso limite della distribuzione binomiale quando , dove è il numero di prove.M→∞M→∞M\rightarrow\inftyMMM Domanda 1: come si può comprendere intuitivamente tale argomento? Domanda 2: Perché il …
Ho pensato che il concetto di set tipico fosse piuttosto intuitivo: una sequenza di lunghezza sarebbe appartenuta al set tipico A ( n ) ϵ se la probabilità che la sequenza venisse fuori era alta. Quindi, qualsiasi sequenza che probabilmente sarebbe stata in A ( n ) ϵ . (Sto …
Nello spiegare perché non correlato non implica indipendente, ci sono diversi esempi che coinvolgono un mucchio di variabili casuali, ma sembrano tutti così astratti: 1 2 3 4 . Questa risposta sembra avere senso. La mia interpretazione: una variabile casuale e il suo quadrato potrebbero non essere correlati (poiché apparentemente …
Stavo lottando con la stazionarietà nella mia testa per un po '... È così che ci pensi? Eventuali commenti o ulteriori pensieri saranno apprezzati. Il processo stazionario è quello che genera valori di serie temporali in modo tale che la media di distribuzione e la varianza siano mantenute costanti. A …
C'è un modo semplice per spiegare perché la procedura di Benjamini e Hochberg (1995) controlla effettivamente il tasso di scoperta falsa (FDR)? Questa procedura è così elegante e compatta, eppure la prova del perché funziona in modo indipendente (che appare nell'appendice del loro documento del 1995 ) non è molto …
Sto fissando la pagina di Wikipedia per la correlazione della distanza in cui sembra essere caratterizzato da come può essere calcolato. Mentre potrei fare i calcoli, faccio fatica a capire quali misure di correlazione della distanza e perché i calcoli sembrano come loro. Esiste una (o molte) caratterizzazioni più intuitive …
Sto cercando di ottenere una comprensione intuitiva e sentire la differenza e la differenza pratica tra il termine coerente e asintoticamente imparziale. Conosco le loro definizioni matematiche / statistiche, ma sto cercando qualcosa di intuitivo. Per me, guardando le loro definizioni individuali, sembrano quasi essere la stessa cosa. Mi rendo …
Ho qualche problema a capire le probabilità e vorrei solo una spiegazione di base su come interpretarle. Ho trovato vari post relativi alle probabilità, ma la maggior parte di essi sono più complessi di quello che sto cercando di capire. Ecco un esempio di come sto interpretando le probabilità: se …
Nelle statistiche circolari, il valore di aspettativa di una variabile casuale con valori sul cerchio S è definito come m 1 ( Z ) = ∫ S z P Z ( θ ) d θ (vedi Wikipedia ). Questa è una definizione molto naturale, così come la definizione della varianza …
Qualcuno può fornire un'intuizione sul perché i momenti più alti di una distribuzione di probabilità , come il terzo e il quarto momento, corrispondano rispettivamente all'asimmetria e alla curtosi? In particolare, perché la deviazione rispetto alla media elevata alla terza o quarta potenza finisce per tradursi in una misura di …
Il teorema di Halmos-Savage afferma che per un modello statistico dominato una statistica è sufficiente se (e solo se) per tutti esiste una versione misurabile del derivato Radon Nikodym dove è un misura privilegiata tale che per e .(Ω,A,P)(Ω,A,P)(\Omega, \mathscr A, \mathscr P)T:(Ω,A,P)→(Ω′,A′)T:(Ω,A,P)→(Ω′,A′)T: (\Omega, \mathscr A, \mathscr P)\to(\Omega', \mathscr A'){P∈P}{P∈P}\{P …
Ho dei problemi a comprendere statistiche complete complete? Sia una statistica sufficiente.T= Σ xioT=ΣxiT=\Sigma x_i Se con probabilità 1, per alcune funzioni , allora è una statistica completa sufficiente.gE[ g( T) ] = 0E[g(T)]=0E[g(T)]=0ggg Ma cosa significa? Ho visto esempi di uniformi e Bernoulli (pagina 6 http://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf ), ma non …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.