Domande taggate «expected-value»

Il valore atteso di una variabile casuale è una media ponderata di tutti i possibili valori che una variabile casuale può assumere, con i pesi pari alla probabilità di assumere quel valore.

3
Se
Per una variabile casuale continua , se è finito, è ?XXXE( | X| )E(|X|)E(|X|)limn → ∞n P( | X| >n)=0limn→∞nP(|X|>n)=0\lim_{n\to\infty}n P(|X|>n)=0 Questo è un problema che ho riscontrato su Internet, ma non sono sicuro che sia valido o meno. So che detiene la disuguaglianza di Markov, ma non posso mostrare …

2
Aspettativa di radice quadrata della somma di variabili casuali uniformi al quadrato indipendenti
Sia variabili variabili casuali standard indipendenti e distribuite in modo identico.X1, ... , Xn∼ U( 0 , 1 )X1,...,Xn~U(0,1)X_1,\dots,X_n \sim U(0,1) Permettere Yn= ∑ionX2ioIo cerco: E [ Yn--√]Permettere Yn=ΣionXio2Io cerco: E[Yn]\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big] L'aspettativa di è semplice:YnYnY_n E [ X2]E [ …



1
Come distribuire in modo ottimale i disegni quando si calcolano più aspettative
Supponiamo di voler calcolare alcune aspettative: EYEX| Y[ f( X, Y) ]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Supponiamo di voler approssimare questo usando la simulazione Monte Carlo. EYEX| Y[ f( X, Y) ] ≈ 1R SΣr = 1RΣs = 1Sf( xr , s, yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Ma supponiamo che è costoso per prelevare dei campioni …






2


2
Calcola la curva ROC per i dati
Quindi, ho 16 prove in cui sto cercando di autenticare una persona da un tratto biometrico usando Hamming Distance. La mia soglia è impostata su 3,5. I miei dati sono di seguito e solo la versione di prova 1 è un vero positivo: Trial Hamming Distance 1 0.34 2 0.37 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

3
Cosa c'è di sbagliato nella mia prova della Legge della varianza totale?
Secondo la legge della varianza totale, Var( X) = E( Var( X∣ Y) ) + Var( E( X∣ Y) )Var⁡(X)=E⁡(Var⁡(X∣Y))+Var⁡(E⁡(X∣Y))\operatorname{Var}(X)=\operatorname{E}(\operatorname{Var}(X\mid Y)) + \operatorname{Var}(\operatorname{E}(X\mid Y)) Quando provo a provarlo, scrivo Var( X)= E( X- EX)2= E{ E[ ( X- EX)2∣ Y] }= E( Var( X∣ Y) )Var⁡(X)=E⁡(X−E⁡X)2=E⁡{E⁡[(X−E⁡X)2∣Y]}=E⁡(Var⁡(X∣Y)) \begin{equation} \begin{aligned} \operatorname{Var}(X) &= …

2
Aspettativa condizionale di statistiche di ordine variabile variabile casuale uniforme
Supponi X = ~ , dove .(X1,...,Xn)(X1,...,Xn)(X_1, ..., X_n)U(θ,2θ)U(θ,2θ)U(\theta, 2\theta)θ∈R+θ∈R+\theta \in \Bbb{R}^+ Come si calcola l'aspettativa condizionale di , dove e sono rispettivamente le statistiche di ordine più piccolo e più grande?E[X1|X(1),X(n)]E[X1|X(1),X(n)]E[X_1|X_{(1)},X_{(n)}]X(1)X(1)X_{(1)}X(n)X(n)X_{(n)} Il mio primo pensiero sarebbe che, poiché le statistiche dell'ordine limitano l'intervallo, è semplicemente , ma non sono …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.