Domande taggate «probability»

Una probabilità fornisce una descrizione quantitativa della probabile occorrenza di un particolare evento.

3
Perché è richiesto il fattore di normalizzazione nel teorema di Bayes?
Il teorema di Bayes va P(model|data)=P(model)×P(data|model)P(data)P(model|data)=P(model)×P(data|model)P(data) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Va tutto bene. Ma ho letto da qualche parte: Fondamentalmente, P (dati) non è altro che una costante normalizzante, cioè una costante che rende la densità posteriore integrata a una. Sappiamo che e . 0 ≤ P ( dati …



3
Intuizione per l'attesa condizionale di -algebra
Sia uno spazio di probabilità, data una variabile casuale e un -algebra possiamo costruire una nuova variabile casuale , che è l'aspettativa condizionale.( Ω , F , μ ) (Ω,F,μ)(\Omega,\mathscr{F},\mu)ξ : Ω → Rξ:Ω→R\xi:\Omega \to \mathbb{R} σ σ\sigmaG ⊆ FG⊆F\mathscr{G}\subseteq \mathscr{F} E [ ξ | G ]E[ξ|G]E[\xi|\mathscr{G}] Qual è esattamente …



5
Quando il teorema del limite centrale e la legge dei grandi numeri non sono d'accordo
Questa è essenzialmente una replica di una domanda che ho trovato su math.se , che non ha ottenuto le risposte che speravo. Sia una sequenza di variabili casuali indipendenti, distribuite in modo identico, con e .{Xi}i∈N{Xi}i∈N\{ X_i \}_{i \in \mathbb{N}}E[Xi]=1E[Xi]=1\mathbb{E}[X_i] = 1V[Xi]=1V[Xi]=1\mathbb{V}[X_i] = 1 Considera la valutazione di limn→∞P(1n−−√∑i=1nXi≤n−−√)limn→∞P(1n∑i=1nXi≤n) \lim_{n …









Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.