Domande taggate «normal-distribution»

La distribuzione normale, o gaussiana, ha una funzione di densità che è una curva simmetrica a forma di campana. È una delle distribuzioni più importanti in statistica. Utilizzare il tag [normality] per chiedere informazioni sui test per la normalità.



2
Perché la ρ di Pearson è solo una misura esauriente dell'associazione se la distribuzione articolare è normale multivariata?
Questa affermazione è stata sollevata nella prima risposta a questa domanda . Penso che la domanda "perché" sia sufficientemente diversa da giustificare un nuovo thread. La "misura esaustiva dell'associazione" su Google non ha prodotto alcun riscontro, e non sono sicuro di cosa significhi quella frase.

4
Valore atteso della mediana del campione data la media del campione
Sia YYY denota la mediana e sia X¯X¯\bar{X} la media, di un campione casuale di dimensione n=2k+1n=2k+1n=2k+1 da una distribuzione che è N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) . Come posso calcolare E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) ? Intuitivamente, a causa del presupposto della normalità, ha senso affermare che E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} e in effetti questa è la risposta corretta. Può …

3
Cholesky contro eigendecomposition per estrarre campioni da una distribuzione normale multivariata
Vorrei disegnare un campione x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right) . Wikipedia suggerisce di usare una composizione Cholesky o Eigendec , cioè Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T o Σ=QΛQTΣ=QΛQT \mathbf{\Sigma} = \mathbf{Q}\mathbf{\Lambda}\mathbf{Q}^T E quindi il campione può essere disegnato tramite: x=D1vx=D1v \mathbf{x} = \mathbf{D}_1 \mathbf{v} oppure x=QΛ−−√vx=QΛv \mathbf{x} = \mathbf{Q}\sqrt{\mathbf{\Lambda}} \mathbf{v} dove …

1
Come simulare da una copula gaussiana?
Supponiamo che io abbia due distribuzioni marginali univariate, diciamoFFF eGGG , che posso simulare. Ora, costruisci la loro distribuzione congiunta usando unacopula gaussiana, indicata conC(F,G;Σ)C(F,G;Σ)C(F,G;\Sigma) . Tutti i parametri sono noti. Esiste un metodo non MCMC per la simulazione da questa copula?

1
Spiegazione intuitiva del contributo alla somma di due variabili casuali normalmente distribuite
Se ho due variabili casuali indipendenti distribuite normalmente XXX e YYY con medie μXμX\mu_X e μYμY\mu_Y e deviazioni standard σXσX\sigma_X e σYσY\sigma_Y e scopro che X+Y=cX+Y=cX+Y=c , allora (supponendo che non abbia commesso alcun errore) la distribuzione condizionale di XXX e YYY dato ccc sono anche normalmente distribuiti con mezzi …




5
Errore di approssimazione dell'intervallo di confidenza per la media quando
Sia {Xi}ni=1{Xi}i=1n\{X_i\}_{i=1}^n una famiglia di variabili casuali iid che assume valori in [0,1][0,1][0,1] , con una media μμ\mu e varianza σ2σ2\sigma^2 . Un semplice intervallo di confidenza per la media, usando σσ\sigma ogni volta che è noto, è dato da P(|X¯−μ|>ε)≤σ2nε2≤1nε2(1).P(|X¯−μ|>ε)≤σ2nε2≤1nε2(1). P( | \bar X - \mu| > \varepsilon) \le …

1
Vantaggi di Box-Muller rispetto al metodo CDF inverso per la simulazione della distribuzione normale?
Per simulare una distribuzione normale da un insieme di variabili uniformi, esistono diverse tecniche: L'algoritmo Box-Muller , in cui si campiona due varianze uniformi indipendenti su e le trasforma in due distribuzioni normali standard indipendenti tramite: Z 0 = √(0,1)(0,1)(0,1)Z0=−2lnU1−−−−−−√cos(2πU0)Z1=−2lnU1−−−−−−√sin(2πU0)Z0=−2lnU1cos(2πU0)Z1=−2lnU1sin(2πU0) Z_0 = \sqrt{-2\text{ln}U_1}\text{cos}(2\pi U_0)\\ Z_1 = \sqrt{-2\text{ln}U_1}\text{sin}(2\pi U_0) il metodo …



1
Qual è l'intuizione dietro i campioni scambiabili sotto l'ipotesi nulla?
I test di permutazione (chiamati anche test di randomizzazione, test di ri-randomizzazione o test esatto) sono molto utili e sono utili quando l'assunzione della distribuzione normale richiesta da per esempio t-testnon è soddisfatta e quando la trasformazione dei valori per classifica del test non parametrici come Mann-Whitney-U-testquesto porterebbero alla perdita …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.