Domande taggate «conditional-probability»

La probabilità che si verifichi un evento A, quando è noto che si verifica un altro evento B o che si è verificato. È comunemente indicato da P (A | B).


2
Derivazione delle distribuzioni condizionate di una distribuzione normale multivariata
Abbiamo un vettore normale multivariato Y∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma) . Prendi in considerazione il partizionamento μμ\boldsymbol\mu e YY{\boldsymbol Y} in μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} con una partizione simile di ΣΣ\Sigma in [Σ11Σ21Σ12Σ22][Σ11Σ12Σ21Σ22] \begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} …

3
Un esempio: regressione di LASSO utilizzando glmnet per il risultato binario
Sto iniziando a dilettarsi con l'uso di glmnetcon LASSO Regressione dove il mio risultato di interesse è dicotomica. Di seguito ho creato un piccolo frame di dati finti: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


3
Una generalizzazione della legge delle aspettative iterate
Di recente mi sono imbattuto in questa identità: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Ho ovviamente familiarità con la versione più semplice di quella regola, ovvero che ma non sono riuscito a trovare la giustificazione per la sua generalizzazione.E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E …


13
Qual è l'intuizione dietro la formula della probabilità condizionale?
La formula per la probabilità condizionale di accadendo dato che è successo è:AA\text{A}BB\text{B}P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. Il mio libro di testo spiega l'intuizione dietro questo in termini di diagramma di Venn. Dato che si è verificato , l'unico modo in cui si verifica è che l'evento …

3



2
Il paradosso dei dati iid (almeno per me)
Per quanto riguarda la mia aggregati (e scarse) conoscenze sulle statistiche permessi, ho capito che se X1,X2,...,XnX1,X2,...,XnX_1, X_2,..., X_n sono variabili casuali, quindi come implica il termine sono indipendenti e identicamente distribuite. La mia preoccupazione qui è l'ex di proprietà di campioni iid, in cui si legge: p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}), …

4
Problema di Monty Hall con un Fallible Monty
Monty sapeva perfettamente se la Porta aveva una capra (o era vuota). Questo fatto consente al giocatore di raddoppiare la sua percentuale di successo nel tempo, passando "ipotesi" sull'altra porta. E se la conoscenza di Monty fosse stata meno che perfetta? E se a volte il Premio fosse davvero sulla …


3
C'è qualche differenza tra frequentista e bayesiano nella definizione di verosimiglianza?
Alcune fonti affermano che la funzione di verosimiglianza non è una probabilità condizionata, altre lo dicono. Questo è molto confuso per me. Secondo la maggior parte delle fonti che ho visto, la probabilità di una distribuzione con il parametro dovrebbe essere un prodotto delle funzioni di massa di probabilità dati …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.