Domande taggate «distributions»

Una distribuzione è una descrizione matematica delle probabilità o delle frequenze.

3
Come posso simulare i microdati di censimento per piccole aree usando un campione di microdati dell'1% su larga scala e statistiche aggregate su piccola scala?
Vorrei eseguire un'analisi multivariata a livello individuale a piccoli livelli di aggregazione geografica (distretti australiani di raccolta del censimento). Chiaramente, il censimento non è disponibile a questi piccoli livelli di aggregazione per motivi di privacy, quindi sto studiando altre alternative. Quasi tutte le variabili di interesse sono categoriche. Ho due …

2
Questa distribuzione ha un nome? O cos'è un processo stocastico che potrebbe generarlo?
Una distribuzione discreta con funzione di massa p(x;k)=k(x+k)(x+k−1),x=1,2,…p(x;k)=k(x+k)(x+k−1),x=1,2,…p(x;k) = \frac{k}{(x+k)(x+k-1)},\quad x = 1,2,\ldots sorge a pagina 9 di questo documento . Per k=1k=1k=1 è una distribuzione di Yule-Simon con ρ=1ρ=1\rho=1 , ma non ho trovato altri esempi. ha un nome? Appare in altri contesti? Esiste un semplice processo stocastico che …

1
Come sommare due variabili che si trovano su scale diverse?
Se ho due variabili che seguono due diverse distribuzioni e con diverse deviazioni standard ... Come devo trasformare due variabili in modo tale che quando riassumo i due risultati non sia "guidato" da uno più volatile. Ad esempio ... La variabile A è meno volatile della variabile B (varia da …

2
Come modellare la somma delle variabili casuali di Bernoulli per i dati dipendenti?
Ho quasi le stesse domande come questa: come posso modellare in modo efficiente la somma delle variabili casuali di Bernoulli? Ma l'impostazione è abbastanza diversa: S=∑i=1,NXiS=∑i=1,NXiS=\sum_{i=1,N}{X_i} , , ~ 20, ~ 0.1P(Xi=1)=piP(Xi=1)=piP(X_{i}=1)=p_iNNNpipip_i Abbiamo i dati per i risultati delle variabili casuali di Bernoulli: ,Xi,jXi,jX_{i,j}Sj=∑i=1,NXi,jSj=∑i=1,NXi,jS_j=\sum_{i=1,N}{X_{i,j}} Se stimiamo la con la stima …

2
Distribuzione di parti "non miscelate" in base all'ordine del mix
Supponiamo che io abbia accoppiato osservazioni disegnate come Xi∼N(0,σ2x),Yi∼N(0,σ2y),Xi∼N(0,σx2),Yi∼N(0,σy2),X_i \sim \mathcal{N}\left(0,\sigma_x^2\right), Y_i \sim \mathcal{N}\left(0,\sigma_y^2\right), per i=1,2,…,ni=1,2,…,ni=1,2,\ldots,n . Lasciare Zi=Xi+Yi,Zi=Xi+Yi,Z_i = X_i + Y_i, e Indichiamo con ZijZijZ_{i_j} la jjj esima grande valore osservato di ZZZ. Qual è la distribuzione (condizionale) di ? (o equivalentemente, quello di Y i j )XijXijX_{i_j}YijYijY_{i_j} …

2
Calcola la curva ROC per i dati
Quindi, ho 16 prove in cui sto cercando di autenticare una persona da un tratto biometrico usando Hamming Distance. La mia soglia è impostata su 3,5. I miei dati sono di seguito e solo la versione di prova 1 è un vero positivo: Trial Hamming Distance 1 0.34 2 0.37 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Calcolo della distribuzione cumulativa del massimo drawdown della camminata casuale con deriva
X0=0,Xi+1=Xi+Yi+1X0=0,Xi+1=Xi+Yi+1X_0 = 0, X_{i+1} = X_i + Y_{i+1}Yi∼N(μ,1)Yi∼N(μ,1)Y_i \sim \mathcal{N}(\mu,1)nnnmax0≤i≤j≤n(Xi−Xj)max0≤i≤j≤n(Xi−Xj)\max_{0 \le i \le j \le n} (X_i - X_j)fornisce la distribuzione per il massimo drawdown di un moto browniano con deriva. L'espressione implica una somma infinita che include alcuni termini definiti solo implicitamente. Ho problemi a scrivere un'implementazione che converge. …

2
Il valore di una densità di probabilità per un dato input è un punto, un intervallo o entrambi?
Questo post dice Un PDF viene utilizzato per specificare la probabilità che la variabile casuale rientri in un determinato intervallo di valori, anziché assumere un valore qualsiasi. È vero? questo è il PDF della distribuzione normale standard. φ(x)=12π−−√e−x2/2φ(x)=12πe−x2/2\varphi(x) = \frac{1}{\sqrt{2\pi}} e^{-x^2/2} collegare x = 0 nella formula sopra, posso ottenere …



3
Quando e implicano ?
La domanda: Xn→dXXn→dXX_n\stackrel{d}{\rightarrow}X eYn→dY⟹?Xn+Yn→dX+YYn→dY⟹?Xn+Yn→dX+YY_n\stackrel{d}{\rightarrow}Y \stackrel{?}{\implies} X_n+Y_n\stackrel{d}{\rightarrow}X+Y So che questo non vale in generale; Il teorema di Slutsky si applica solo quando una o entrambe le convergenze sono in probabilità. Tuttavia, ci sono casi in cui si fa attesa? Ad esempio, se le sequenze e sono indipendenti.XnXnX_nYnYnY_n

1
Come viene chiamata la famiglia di distribuzioni con PDF proporzionale a ?
Considera una famiglia di distribuzioni con PDF (fino a una costante di proporzionalità) data da Come si chiama? Se non ha un nome, come lo chiameresti?p(x)∼1(1+αx2)1/α.p(x)∼1(1+αx2)1/α.p(x)\sim \frac{1}{(1+\alpha x^2)^{1/\alpha}}. Sembra abbastanza simile alla famiglia di distribuzioni con PDF proporzionale a tttp ( x ) ∼1( 1 +1νX2)( ν+ 1 ) / …

1
Spiegazione / motivazione intuitiva della distribuzione stazionaria di un processo
Spesso, in letteratura, gli autori sono stati interessati a trovare la distribuzione stazionaria di un processo di serie storiche. Ad esempio, considera il seguente semplice processo AR ( ) : dove .111{Xt}{Xt}\{X_t\}Xt=αXt−1+et,Xt=αXt−1+et,X_t = \alpha X_{t-1} + e_t, et∼iidfet∼iidfe_t\stackrel{iid}{\thicksim} f Quali potrebbero essere le motivazioni per trovare la distribuzione stazionaria di …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.