La variabile casuale è definita come una funzione misurabile da un -algebra con la misura sottostante ad un altro -algebra .σ ( Ω 1 , F 1 ) P σ ( Ω 2 , F 2 )XXXσσ\sigma(Ω1,F1)(Ω1,F1)(\Omega_1, \mathcal F_1)PPPσσ\sigma(Ω2,F2)(Ω2,F2)(\Omega_2, \mathcal F_2) Come parliamo di un esempio di questa variabile casuale? …
Mi sono imbattuto in questa derivazione che non capisco: se sono campioni casuali di dimensione n presi da una popolazione di media e varianza , alloraX1,X2,...,XnX1,X2,...,XnX_1, X_2, ..., X_nμμ\muσ2σ2\sigma^2 X¯=(X1+X2+...+Xn)/nX¯=(X1+X2+...+Xn)/n\bar{X} = (X_1 + X_2 + ... + X_n)/n E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(X¯)=E(X1+X2+...+Xn)/n=(1/n)(E(X1)+E(X2)+...+E(Xn))E(\bar{X}) = E(X_1 + X_2 + ... + X_n)/n = (1/n)(E(X_1) + …
Uno dei problemi nel mio libro di testo si pone come segue. Un vettore continuo stocastico bidimensionale ha la seguente funzione di densità: fX,Y(x,y)={15xy20if 0 < x < 1 and 0 < y < xotherwisefX,Y(x,y)={15xy2if 0 < x < 1 and 0 < y < x0otherwise f_{X,Y}(x,y)= \begin{cases} 15xy^2 & …
Spesso negli articoli di ricerca che leggi i ricercatori hanno controllato determinate variabili. Questo può essere fatto con metodi come corrispondenza, blocco, ecc. Ma ho sempre pensato che il controllo delle variabili fosse qualcosa di statisticamente misurato misurando diverse variabili che potevano essere d'influenza ed eseguire alcune analisi statistiche su …
Siano e due variabili casuali indipendenti aventi la stessa distribuzione uniforme U (0,1) con densitàXXXYYYU( 0 , 1 )U(0,1)U(0,1) f( x ) = 1f(x)=1f(x)=1 se 0 ≤ x ≤ 10≤x≤10≤x≤1 (e 000 altrove). Sia ZZZ una vera variabile casuale definita da: Z= X- YZ=X-YZ=X-Y se X> YX>YX>Y (e 000 altrove). …
Ho un dubbio: considera le variabili casuali valutate reali e entrambe definite nello spazio probabilità .XXXZZZ(Ω,F,P)(Ω,F,P)(\Omega, \mathcal{F},\mathbb{P}) Sia , dove è una funzione a valore reale. Poiché è una funzione di variabili casuali, è una variabile casuale.Y:=g(X,Z)Y:=g(X,Z)Y:= g(X,Z)g(⋅)g(⋅)g(\cdot)YYY Let cioè una realizzazione di .x:=X(ω)x:=X(ω)x:=X(\omega)XXX È pari a ?P(Y|X=x)=P(g(X,Z)|X=x)P(Y|X=x)=P(g(X,Z)|X=x)\mathbb{P}(Y|X=x)=\mathbb{P}(g(X,Z)|X=x)P(g(x,Z))P(g(x,Z))\mathbb{P}(g(x,Z))
Supponiamo che X1X1X_1 e X2X2X_2 siano variabili casuali geometriche indipendenti con il parametro ppp . Qual è la probabilità che X1≥X2X1≥X2X_1 \geq X_2 ? Sono confuso su questa domanda perché non ci viene detto nulla su X1X1X_1 e X2X2X_2 se non che sono geometrici. Non sarebbe del 50%50%50\% perché X1X1X_1 …
È possibile che il PDF della differenza di due iid rv sembri un rettangolo (anziché, diciamo, il triangolo che otteniamo se i rv sono presi dalla distribuzione uniforme). cioè è possibile che il PDF f di jk (per due iid rv presi da una certa distribuzione) abbia f (x) = …
Un pdf è solitamente scritto come , dove la minuscola viene trattata come una realizzazione o un risultato della variabile casuale che ha quel pdf. Allo stesso modo, un cdf è scritto come , che ha il significato . Tuttavia, in alcune circostanze, come la definizione della funzione score e …
Se X∼C(0,1)X∼C(0,1)X\sim\mathcal C(0,1) , trova la distribuzione di Y=2X1−X2Y=2X1−X2Y=\frac{2X}{1-X^2} . Abbiamo FY(y)=Pr(Y≤y)FY(y)=Pr(Y≤y)F_Y(y)=\mathrm{Pr}(Y\le y) =Pr(2X1−X2≤y)=Pr(2X1−X2≤y)\qquad\qquad\qquad=\mathrm{Pr}\left(\frac{2X}{1-X^2}\le y\right) =⎧⎩⎨⎪⎪⎪⎪⎪⎪Pr(X∈(−∞,−1−1+y2√y])+Pr(X∈(−1,−1+1+y2√y]),ify>0Pr(X∈(−1,−1+1+y2√y])+Pr(X∈(1,−1−1+y2√y]),ify<0={Pr(X∈(−∞,−1−1+y2y])+Pr(X∈(−1,−1+1+y2y]),ify>0Pr(X∈(−1,−1+1+y2y])+Pr(X∈(1,−1−1+y2y]),ify<0\qquad\qquad=\begin{cases} \mathrm{Pr}\left(X\in\left(-\infty,\frac{-1-\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y>0\\ \mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(1,\frac{-1-\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y<0 \end{cases} Mi chiedo se la distinzione di cui sopra sia corretta o meno. D'altra parte, il seguente sembra un metodo più semplice: Possiamo scrivere Y=tan(2tan−1X)Y=tan(2tan−1X)Y=\tan(2\tan^{-1}X) usando l'identità 2tanz1−tan2z=tan2z2tanz1−tan2z=tan2z\frac{2\tan z}{1-\tan^2z}=\tan 2z …
Fa implica l'indipendenza di e ?Cov(f(X),Y)=0∀f(.)Cov(f(X),Y)=0∀f(.)\mathbb{Cov} \left(f(X),Y\right) = 0 \; \forall \; f(.)XXXYYY Sono a conoscenza solo con la seguente definizione di indipendenza tra e .XXXYYY fx,y(x,y)=fx(x)fy(y)fx,y(x,y)=fx(x)fy(y) f_{x,y}(x,y) = f_x(x)f_y(y)
Consenti a essere IID e . Sembra ovvio, ma sto avendo problemi a derivarlo formalmente.ˉ X = ∑ n i = 1 X i E [ X iXiXiX_iX¯=∑ni=1XiX¯=∑i=1nXi\bar{X} = \sum_{i=1}^{n} X_iE[ XioX¯] =? E[XiX¯]= ? E\left[\frac{X_i}{\bar{X}}\right] = \ ?
Bene, non possiamo, per esempio, vedere https://en.wikipedia.org/wiki/Subindependence per un interessante controesempio. Ma la vera domanda è: esiste un modo per rafforzare la condizione affinché segua l'indipendenza? Ad esempio, esiste un insieme di funzioni modo che se per tutti seguirà l'indipendenza? E quanto deve essere infinito un tale insieme di funzioni?E …
Sto cercando di trovare la distribuzione di probabilità di una somma di un numero casuale di variabili che non sono distribuite in modo identico. Ecco un esempio: John lavora in un call center del servizio clienti. Riceve chiamate con problemi e cerca di risolverli. Quelli che non riesce a risolvere, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.