Domande taggate «conditional-probability»

La probabilità che si verifichi un evento A, quando è noto che si verifica un altro evento B o che si è verificato. È comunemente indicato da P (A | B).

4
Quali sono i valori corretti per precisione e richiamo nei casi limite?
La precisione è definita come: p = true positives / (true positives + false positives) È corretto che, come true positivese false positivesavvicinarsi a 0, la precisione si avvicina a 1? Stessa domanda da ricordare: r = true positives / (true positives + false negatives) Attualmente sto implementando un test …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

3
Perché è richiesto il fattore di normalizzazione nel teorema di Bayes?
Il teorema di Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Va tutto bene. Ma ho letto da qualche parte: Fondamentalmente, P (dati) non è altro che una costante normalizzante, cioè una costante che rende la densità posteriore integrata a una. Sappiamo che e . 0 ≤ P ( dati …

3
Intuizione per l'attesa condizionale di -algebra
Sia uno spazio di probabilità, data una variabile casuale e un -algebra possiamo costruire una nuova variabile casuale , che è l'aspettativa condizionale.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] Qual è esattamente …

4
Problema con la prova dell'aspettativa condizionale come miglior predittore
Ho un problema con la prova di E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈arg⁡ming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] che molto probabilmente rivelano un più profondo fraintendimento di aspettative e aspettative condizionate. La prova che conosco è la seguente (un'altra versione di questa prova può essere trovata qui ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]arg⁡ming(X)E[(Y−g(x))2]=arg⁡ming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=arg⁡ming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=arg⁡ming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ …



1
simulazione di campioni casuali con un dato MLE
Questa domanda con convalida incrociata che chiedeva di simulare un campione subordinato a una somma fissa mi ha ricordato un problema che mi è stato posto da George Casella . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=arg⁡min∑i=1nlog⁡f(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta θ (X1,...,Xn)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Ad esempio, prendi una distribuzione , con parametro di posizione , la cui densità …


1
Spiegazione intuitiva del contributo alla somma di due variabili casuali normalmente distribuite
Se ho due variabili casuali indipendenti distribuite normalmente XXX e YYY con medie μXμX\mu_X e μYμY\mu_Y e deviazioni standard σXσX\sigma_X e σYσY\sigma_Y e scopro che X+Y=cX+Y=cX+Y=c , allora (supponendo che non abbia commesso alcun errore) la distribuzione condizionale di XXX e YYY dato ccc sono anche normalmente distribuiti con mezzi …



3
Se sono IID, quindi calcola , dove
Domanda Se sono IID, quindi calcola , dove .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Tentativo : verificare se il seguito è corretto. Diciamo, prendiamo la somma di quelle aspettative condizionali tali che, Significa che ogni poiché X_1, \ ldots, X_n sono IID.∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i …

6
La statistica più importante: "il 90% di tutte le donne è sopravvissuto" o il "90% di tutte le donne sopravvissute erano donne"?
Considera le seguenti dichiarazioni sul Titanic: Assunzione 1: solo uomini e donne erano sulla nave Assunzione 2: c'erano un gran numero di uomini e donne Dichiarazione 1: il 90 percento di tutte le donne è sopravvissuto Dichiarazione 2: il 90 percento di tutti coloro che sono sopravvissuti erano donne Il …

1
Teorema di Bayes con più condizioni
Non capisco come sia stata derivata questa equazione. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Questa equazione proveniva dall'articolo "Prova per probabilità" in cui il caso di OJ Simpson è stato illustrato come un problema di esempio. L'imputato è sotto processo per doppio omicidio e due prove sono state presentate contro di …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.