Domande taggate «expected-value»

Il valore atteso di una variabile casuale è una media ponderata di tutti i possibili valori che una variabile casuale può assumere, con i pesi pari alla probabilità di assumere quel valore.


1
Perché ln [E (x)]> E [ln (x)]?
Abbiamo a che fare con la distribuzione lognormale in un corso di finanza e il mio libro di testo afferma semplicemente che questo è vero, che trovo frustrante poiché il mio background in matematica non è molto forte ma voglio l'intuizione. Qualcuno può mostrarmi perché questo è il caso?


2
Come calcolare il valore atteso di una distribuzione normale standard?
Vorrei imparare a calcolare il valore atteso di una variabile casuale continua. Sembra che il valore atteso è in cui è la funzione di densità di probabilità di .E[X]=∫∞−∞xf(x)dxE[X]=∫−∞∞xf(x)dxE[X] = \int_{-\infty}^{\infty} xf(x)\mathrm{d}xf(x)f(x)f(x)XXX Supponiamo che la funzione di densità di probabilità di sia che è la densità del distribuzione normale standard.XXXf(x)=12π−−√e−x22f(x)=12πe−x22f(x) …

2
Esempio di costruzione che mostra
Come costruire un esempio di distribuzione di probabilità per la quale vale, assumendo ?E(1X)=1E(X)E(1X)=1E(X)\mathbb{E}\left(\frac{1}{X}\right)=\frac{1}{\mathbb{E}(X)}P(X≠0)=1P(X≠0)=1\mathbb{P}(X\ne0)=1 La disuguaglianza che deriva dalla disuguaglianza di Jensen per un RV valutato positivamente è come (la disuguaglianza inversa se ). Questo perché il mapping è convesso per e concavo per . Seguendo la condizione di uguaglianza …

2
Aspettativa del massimo delle variabili Gumbel iid
Continuo a leggere su riviste economiche di un particolare risultato utilizzato in modelli di utilità casuali. Una versione del risultato è: if Gumbel ( , quindi:μ,1),∀iϵi∼iid,ϵi∼iid,\epsilon_i \sim_{iid}, μ,1),∀iμ,1),∀i\mu, 1), \forall i E[maxi(δi+ϵi)]=μ+γ+ln(∑iexp{δi}),E[maxi(δi+ϵi)]=μ+γ+ln⁡(∑iexp⁡{δi}),E[\max_i(\delta_i + \epsilon_i)] = \mu + \gamma + \ln\left(\sum_i \exp\left\{\delta_i \right\} \right), dove γ≈0.52277γ≈0.52277\gamma \approx 0.52277 è la costante …

1
Valore atteso di
Sono curioso di sapere l'affermazione fatta in fondo alla prima pagina in questo testo riguardo alla regolazione diR2adjustedRadjusted2R^2_\mathrm{adjusted} R2adjusted=1−(1−R2)(n−1n−m−1).Radjusted2=1−(1−R2)(n−1n−m−1).R^2_\mathrm{adjusted} =1-(1-R^2)\left({\frac{n-1}{n-m-1}}\right). Il testo afferma: La logica della correzione è la seguente: nella regressione multipla ordinaria, un predittore casuale spiega in media una proporzione 1/(n–1)1/(n–1)1/(n – 1) della variazione della risposta, in …

5
Come eseguire l'imputazione dei valori in un numero molto elevato di punti dati?
Ho un set di dati molto grande e mancano circa il 5% di valori casuali. Queste variabili sono correlate tra loro. Il seguente set di dati R è solo un esempio di giocattolo con dati correlati fittizi. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
Valore atteso della correlazione spuria
Disegniamo campioni, ciascuno di dimensioni , indipendentemente da una distribuzione normale .n ( μ , σ 2 )NNNnnn(μ,σ2)(μ,σ2)(\mu,\sigma^2) Dagli campioni scegliamo quindi i 2 campioni che hanno la più alta (assoluta) correlazione di Pearson tra loro.NNN Qual è il valore atteso di questa correlazione? Grazie [PS Questo non è un …

3
Come si calcola l'aspettativa di ?
Se è distribuito esponenzialmente con il parametro e sono reciprocamente indipendenti, qual è l'aspettativa di ( i = 1 , . . . , N ) λ X iXiXiX_i(i=1,...,n)(i=1,...,n)(i=1,...,n)λλ\lambdaXiXiX_i (∑i=1nXi)2(∑i=1nXi)2 \left(\sum_{i=1}^n {X_i} \right)^2 in termini di e e forse altre costanti?λnnnλλ\lambda Nota: questa domanda ha ottenuto una risposta matematica su …


1
Esistono distribuzioni diverse da Cauchy per le quali la media aritmetica di un campione segue la stessa distribuzione?
Se segue una distribuzione di Cauchy, allora segue esattamente la stessa distribuzione di ; vedi questa discussione .XXXY=X¯=1n∑ni=1XiY=X¯=1n∑i=1nXiY = \bar{X} = \frac{1}{n} \sum_{i=1}^n X_iXXX Questa proprietà ha un nome? Ci sono altre distribuzioni per le quali questo è vero? MODIFICARE Un altro modo di porre questa domanda: lascia che sia …

2
Aspettativa di una gamma quadrata
Se una distribuzione gamma è parametrizzata con αα\alpha e ββ\beta , allora: E( Γ ( α , β) ) = αβE(Γ(α,β))=αβ E(\Gamma(\alpha, \beta)) = \frac{\alpha}{\beta} Vorrei calcolare l'aspettativa di una Gamma quadrata, ovvero: E( Γ ( α , β)2) = ?E(Γ(α,β)2)=? E(\Gamma(\alpha, \beta)^2) = ? Io penso che è: E( …


1
Media e varianza di una distribuzione di Poisson gonfiata a zero
Qualcuno può mostrare come il valore atteso e la varianza del Poisson gonfiato zero, con funzione di massa di probabilità f(y)={π+(1−π)e−λ,(1−π)λye−λy!,if y=0if y=1,2....f(y)={π+(1−π)e−λ,if y=0(1−π)λye−λy!,if y=1,2.... f(y) = \begin{cases} \pi+(1-\pi)e^{-\lambda}, & \text{if }y=0 \\ (1-\pi)\frac{\lambda^{y}e^{-\lambda}}{y!}, & \text{if }y=1,2.... \end{cases} dove è la probabilità che l'osservazione sia zero da un processo binomiale …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.