Funzione di distribuzione cumulativa. Mentre il PDF fornisce la densità di probabilità di ciascun valore di una variabile casuale, il CDF (spesso indicatoF( x )) fornisce la probabilità che la variabile casuale sia minore o uguale a un valore specificato.
Sono quasi sicuro di aver già visto i seguenti risultati nelle statistiche, ma non ricordo dove. Se è una variabile casuale positiva e allora quando , dove è il cdf di .XXXε F - 1 ( 1 - ε ) → 0 ε → 0 + F XE(X)<∞E(X)<∞\mathbb{E}(X)<\inftyεF−1(1−ε)→0εF−1(1−ε)→0\varepsilon F^{-1}(1-\varepsilon) \to …
Un pdf è solitamente scritto come , dove la minuscola viene trattata come una realizzazione o un risultato della variabile casuale che ha quel pdf. Allo stesso modo, un cdf è scritto come , che ha il significato . Tuttavia, in alcune circostanze, come la definizione della funzione score e …
Esempi: ho una frase nella descrizione del lavoro: "Ingegnere senior Java nel Regno Unito". Voglio usare un modello di apprendimento profondo per prevederlo in 2 categorie: English e IT jobs. Se uso il modello di classificazione tradizionale, posso solo prevedere 1 etichetta con la softmaxfunzione all'ultimo livello. Quindi, posso usare …
Sto cercando di capire come ottenere valori per il test unilaterale di Kolmogorov-Smirnov e sto cercando di trovare CDF per e nel caso di due campioni. Di seguito viene citato in alcuni punti come CDF per in un caso a campione:D + n 1 , n 2 D - n …
Sia osservazioni distinte (nessun legame). Lascia che denoti un campione bootstrap (un campione dal CDF empirico) e che . Trova e .X1,...,XnX1,...,XnX_{1},...,X_{n}X∗1,...,X∗nX1∗,...,Xn∗X_{1}^{*},...,X_{n}^{*}X¯∗n=1n∑ni=1X∗iX¯n∗=1n∑i=1nXi∗\bar{X}_{n}^{*}=\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*}E(X¯∗n)E(X¯n∗)E(\bar{X}_{n}^{*})Var(X¯∗n)Var(X¯n∗)\mathrm{Var}(\bar{X}_{n}^{*}) Quello che ho finora è che è ciascuno con probabilità quindi ed che dà X∗iXi∗X_{i}^{*}X1,...,XnX1,...,XnX_{1},...,X_{n}1n1n\frac{1}{n}E(X∗i)=1nE(X1)+...+1nE(Xn)=nμn=μE(Xi∗)=1nE(X1)+...+1nE(Xn)=nμn=μ E(X_{i}^{*})=\frac{1}{n}E(X_{1})+...+\frac{1}{n}E(X_{n})=\frac{n\mu}{n}=\mu E(X∗2i)=1nE(X21)+...+1nE(X2n)=n(μ2+σ2)n=μ2+σ2,E(Xi∗2)=1nE(X12)+...+1nE(Xn2)=n(μ2+σ2)n=μ2+σ2,E(X_{i}^{*2})=\frac{1}{n}E(X_{1}^{2})+...+\frac{1}{n}E(X_{n}^{2})=\frac{n(\mu^{2}+\sigma^{2})}{n}=\mu^{2}+\sigma^{2}\>, Var(X∗i)=E(X∗2i)−(E(X∗i))2=μ2+σ2−μ2=σ2.Var(Xi∗)=E(Xi∗2)−(E(Xi∗))2=μ2+σ2−μ2=σ2. \mathrm{Var}(X_{i}^{*})=E(X_{i}^{*2})-(E(X_{i}^{*}))^{2}=\mu^{2}+\sigma^{2}-\mu^{2}=\sigma^{2} \>. Quindi, e poiché ' sono indipendenti. Questo dàE(X¯∗n)=E(1n∑i=1nX∗i)=1n∑i=1nE(X∗i)=nμn=μE(X¯n∗)=E(1n∑i=1nXi∗)=1n∑i=1nE(Xi∗)=nμn=μE(\bar{X}_{n}^{*})=E(\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*})=\frac{1}{n}\sum_{i=1}^{n}E(X_{i}^{*})=\frac{n\mu}{n}=\mu …
X0=0,Xi+1=Xi+Yi+1X0=0,Xi+1=Xi+Yi+1X_0 = 0, X_{i+1} = X_i + Y_{i+1}Yi∼N(μ,1)Yi∼N(μ,1)Y_i \sim \mathcal{N}(\mu,1)nnnmax0≤i≤j≤n(Xi−Xj)max0≤i≤j≤n(Xi−Xj)\max_{0 \le i \le j \le n} (X_i - X_j)fornisce la distribuzione per il massimo drawdown di un moto browniano con deriva. L'espressione implica una somma infinita che include alcuni termini definiti solo implicitamente. Ho problemi a scrivere un'implementazione che converge. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.