Un'aspettativa condizionale è l'aspettativa di una variabile casuale, data l'informazione su un'altra variabile o variabili (principalmente, specificando il loro valore).
Qual è il significato esatto della notazione dei pedici nelle aspettative condizionali nel quadro della teoria delle misure? Questi pedici non compaiono nella definizione di aspettativa condizionale, ma possiamo vedere ad esempio in questa pagina di Wikipedia . (Nota che non è stato sempre così, la stessa pagina qualche mese …
Di recente mi sono imbattuto in questa identità: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Ho ovviamente familiarità con la versione più semplice di quella regola, ovvero che ma non sono riuscito a trovare la giustificazione per la sua generalizzazione.E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E …
Sia uno spazio di probabilità, data una variabile casuale e un -algebra possiamo costruire una nuova variabile casuale , che è l'aspettativa condizionale.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] Qual è esattamente …
Ho un problema con la prova di E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] che molto probabilmente rivelano un più profondo fraintendimento di aspettative e aspettative condizionate. La prova che conosco è la seguente (un'altra versione di questa prova può essere trovata qui ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ …
In generale, qual è la differenza tra E ( X | Y )E(X|Y)E(X|Y) ed E ( X | Y = y )E(X|Y=y)E(X|Y=y) ? Precedentemente è la funzione di e quest'ultima è la funzione di ? È così confuso ..y yyxxx
Mi sento un po 'a disagio per come ho affrontato mentalmente il paradosso di Borel e altri "paradossi" associati che hanno a che fare con la probabilità condizionale. Per coloro che stanno leggendo questo e non lo conoscono, vedere questo link . La mia risposta mentale fino a questo punto …
Sia YYY denota la mediana e sia X¯X¯\bar{X} la media, di un campione casuale di dimensione n=2k+1n=2k+1n=2k+1 da una distribuzione che è N(μ,σ2)N(μ,σ2)N(\mu,\sigma^2) . Come posso calcolare E(Y|X¯=x¯)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) ? Intuitivamente, a causa del presupposto della normalità, ha senso affermare che E(Y|X¯=x¯)=x¯E(Y|X¯=x¯)=x¯E(Y|\bar{X}=\bar{x})=\bar{x} e in effetti questa è la risposta corretta. Può …
Supponiamo che XXX e YYY abbiano un secondo momento finito. Nello spazio di Hilbert di variabili casuali con secondo momento finito (con prodotto interno di T1,T2T1,T2T_1,T_2 definito da , ), possiamo interpretare come la proiezione sullo spazio di funzioni di .E(T1T2)E(T1T2)E(T_1T_2)||T||2=E(T2)||T||2=E(T2)||T||^2=E(T^2)E(Y|X)E(Y|X)E(Y|X)YYYXXX Sappiamo anche che la Legge della varianza totale legge …
Domanda Se sono IID, quindi calcola , dove .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Tentativo : verificare se il seguito è corretto. Diciamo, prendiamo la somma di quelle aspettative condizionali tali che, Significa che ogni poiché X_1, \ ldots, X_n sono IID.∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i …
Per una variabile casuale ( ) Sento intuitivamente che dovrebbe essere uguale a poiché dalla proprietà senza memoria la distribuzione di è uguale a quella di ma spostata a destra di .X∼Exp(λ)X∼Exp(λ)X\sim \text{Exp}(\lambda)E[X]=1λE[X]=1λ\mathbb{E}[X] = \frac{1}{\lambda}E[X|X>x]E[X|X>x]\mathbb{E}[X|X > x]x+E[X]x+E[X]x + \mathbb{E}[X]X|X>xX|X>xX|X > xXXXxxx Tuttavia, sto lottando per usare la proprietà senza memoria …
Sto riscontrando dei problemi nel risolvere quanto segue. Pesca carte da un mazzo standard da 52 carte senza sostituzione finché non ottieni un asso. Disegna da ciò che resta fino a quando non ottieni un 2. Continui con 3. Qual è il numero atteso che ti verrà dopo che l'intero …
Volevo capire meglio il test esatto del pescatore, quindi ho escogitato il seguente esempio di giocattolo, dove f e m corrispondono a maschio e femmina e n e y corrispondono a "consumo di soda" in questo modo: > soda_gender f m n 0 5 y 5 0 Ovviamente, questa è …
Il mgcvpacchetto per Rha due funzioni per adattare le interazioni del prodotto tensore: te()e ti(). Comprendo la divisione di base del lavoro tra i due (adattamento di un'interazione non lineare rispetto alla scomposizione di questa interazione in effetti principali e un'interazione). Quello che non capisco è perché te(x1, x2)e ti(x1) …
Considera 3 iid campioni estratti dalla distribuzione uniforme , dove θ è un parametro. Voglio trovare E [ X ( 2 ) | X ( 1 ) , X ( 3 ) ] dove X ( i ) è la statistica dell'ordine i .u(θ,2θ)u(θ,2θ)u(\theta, 2\theta)θθ\thetaE[X(2)|X(1),X(3)]E[X(2)|X(1),X(3)] \mathbb{E}\left[X_{(2)}| X_{(1)}, X_{(3)}\right] X(i)X(i)X_{(i)}iii Mi …
Ho due variabili normalmente distribuite e con zero medio e matrice di covarianza . Sono interessato a provare a calcolare il valore di in termini di voci di .X 2 Σ E [ X 2 1 X 2 2 ] ΣX1X1X_1X2X2X_2ΣΣ\SigmaE[ X21X22]E[X12X22]E[X_1^2 X_2^2]ΣΣ\Sigma Ho usato la legge della probabilità totale …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.