La probabilità che si verifichi un evento A, quando è noto che si verifica un altro evento B o che si è verificato. È comunemente indicato da P (A | B).
La precisione è definita come: p = true positives / (true positives + false positives) È corretto che, come true positivese false positivesavvicinarsi a 0, la precisione si avvicina a 1? Stessa domanda da ricordare: r = true positives / (true positives + false negatives) Attualmente sto implementando un test …
Il teorema di Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Va tutto bene. Ma ho letto da qualche parte: Fondamentalmente, P (dati) non è altro che una costante normalizzante, cioè una costante che rende la densità posteriore integrata a una. Sappiamo che e . 0 ≤ P ( dati …
Sia uno spazio di probabilità, data una variabile casuale e un -algebra possiamo costruire una nuova variabile casuale , che è l'aspettativa condizionale.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] Qual è esattamente …
Ho un problema con la prova di E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] che molto probabilmente rivelano un più profondo fraintendimento di aspettative e aspettative condizionate. La prova che conosco è la seguente (un'altra versione di questa prova può essere trovata qui ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ …
Potresti informarmi per favore, come posso calcolare la probabilità condizionata di diversi eventi? per esempio: P (A | B, C, D) -? Lo so: P (A | B) = P (A B) / P (B)∩∩\cap Ma, sfortunatamente, non riesco a trovare alcuna formula se un evento A dipende da diverse …
Nella formula di Bayes: P( x | a ) = P( a | x ) P( x )P( Un )P(X|un')=P(un'|X)P(X)P(un')P(x|a) = \frac{P(a|x) P(x)}{P(a)} la probabilità posteriore può superare 1?P( x | a )P(X|un')P(x|a) Penso che sia possibile, ad esempio, supponendo che e e . Ma non ne sono sicuro, perché …
Questa domanda con convalida incrociata che chiedeva di simulare un campione subordinato a una somma fissa mi ha ricordato un problema che mi è stato posto da George Casella . f(x|θ)f(x|θ)f(x|\theta)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θθ\thetaθ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)θ^(x1,…,xn)=argmin∑i=1nlogf(xi|θ)\hat{\theta}(x_1,\ldots,x_n)=\arg\min \sum_{i=1}^n \log f(x_i|\theta)θθ\theta θ (X1,...,Xn)(X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n)θ^(X1,…,Xn)θ^(X1,…,Xn)\hat{\theta}(X_1,\ldots,X_n) Ad esempio, prendi una distribuzione , con parametro di posizione , la cui densità …
Mi sento un po 'a disagio per come ho affrontato mentalmente il paradosso di Borel e altri "paradossi" associati che hanno a che fare con la probabilità condizionale. Per coloro che stanno leggendo questo e non lo conoscono, vedere questo link . La mia risposta mentale fino a questo punto …
Se ho due variabili casuali indipendenti distribuite normalmente XXX e YYY con medie μXμX\mu_X e μYμY\mu_Y e deviazioni standard σXσX\sigma_X e σYσY\sigma_Y e scopro che X+Y=cX+Y=cX+Y=c , allora (supponendo che non abbia commesso alcun errore) la distribuzione condizionale di XXX e YYY dato ccc sono anche normalmente distribuiti con mezzi …
Capisco P(A∩B)/P(B)=P(A|B)P(A∩B)/P(B)=P(A|B)P(A\cap B)/P(B) = P(A|B) . Il condizionale è l'intersezione di A e B divisa per l'intera area di B. Ma perché P( A ∩ B | C) / P( B | C) = P( A | B ∩ C)P(UN∩B|C)/P(B|C)=P(UN|B∩C)P(A\cap B|C)/P(B|C) = P(A|B \cap C) ? Puoi dare un po …
Nelle lezioni video di Harvard's Statistics 110: corso di probabilità che si possono trovare su iTunes e YouTube, ho riscontrato questo problema. Ho provato a sintetizzarlo qui: Supponiamo che ci venga data una mano casuale di due carte da un mazzo standard. Qual è la probabilità che entrambe le carte …
Domanda Se sono IID, quindi calcola , dove .X1,⋯,Xn∼N(μ,1)X1,⋯,Xn∼N(μ,1)X_1,\cdots,X_n \sim \mathcal{N}(\mu, 1)E(X1∣T)E(X1∣T)\mathbb{E}\left( X_1 \mid T \right)T=∑iXiT=∑iXiT = \sum_i X_i Tentativo : verificare se il seguito è corretto. Diciamo, prendiamo la somma di quelle aspettative condizionali tali che, Significa che ogni poiché X_1, \ ldots, X_n sono IID.∑iE(Xi∣T)=E(∑iXi∣T)=T.∑iE(Xi∣T)=E(∑iXi∣T)=T.\begin{align} \sum_i \mathbb{E}\left( X_i …
Considera le seguenti dichiarazioni sul Titanic: Assunzione 1: solo uomini e donne erano sulla nave Assunzione 2: c'erano un gran numero di uomini e donne Dichiarazione 1: il 90 percento di tutte le donne è sopravvissuto Dichiarazione 2: il 90 percento di tutti coloro che sono sopravvissuti erano donne Il …
Non capisco come sia stata derivata questa equazione. P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M1∩M2)≤P(I)P(I′)⋅P(M1|I)P(M2|I)P(M1|I′)P(M2|I′)P(I|M_{1}\cap M_{2}) \leq \frac{P(I)}{P(I')}\cdot \frac{P(M_{1}|I)P(M_{2}|I)}{P(M_{1}|I')P(M_{2}|I')} Questa equazione proveniva dall'articolo "Prova per probabilità" in cui il caso di OJ Simpson è stato illustrato come un problema di esempio. L'imputato è sotto processo per doppio omicidio e due prove sono state presentate contro di …
Supponiamo che la variabile casuale segua una distribuzione Uniforme continua con i parametri 0 e 10 (cioè )U ∼ U ( 0 , 10 )UUUU∼ U ( 0 , 10 )U∼U(0,10)U \sim \rm{U}(0,10) Ora denotiamo A l'evento che = 5 e B l'evento che è uguale a o 6. Secondo …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.