La probabilità che si verifichi un evento A, quando è noto che si verifica un altro evento B o che si è verificato. È comunemente indicato da P (A | B).
Quando studio la selezione della covarianza, ho letto una volta il seguente esempio. Rispetto al seguente modello: La sua matrice di covarianza e la matrice di covarianza inversa sono fornite come segue, Non capisco il motivo per cui l'indipendenza della ed è deciso dal covarianza inversa qui?Xxxyyy Qual è la …
Chiuso . Questa domanda richiede dettagli o chiarezza . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiungi dettagli e chiarisci il problema modificando questo post . Chiuso 2 anni fa . Sto leggendo Luce (1959) . Quindi ho trovato questa affermazione: Quando una persona sceglie tra alternative, molto …
Vorrei sapere come interpretare correttamente i diagrammi di densità condizionale. Ho inserito due sotto che ho creato in R con cdplot. Ad esempio, la probabilità che il risultato sia uguale a 1 quando Var 1 è 150 circa l'80% circa? L'area grigio scuro è quella che è la probabilità condizionale …
Diciamo che sto facendo 10.000 lanci di una moneta. Vorrei sapere la probabilità di quante lancette ci vogliono per ottenere 4 o più teste consecutive di fila. Il conteggio funzionerebbe come segue, conteresti un giro successivo di lanci essendo solo teste (4 o più teste). Quando una coda colpisce e …
Durante l'addestramento di un modello parametrico (ad es. Per massimizzare la probabilità) tramite la discesa stocastica del gradiente su alcuni set di dati, si presume comunemente che i campioni di allenamento siano estratti dalla distribuzione dei dati di allenamento. Quindi, se l'obiettivo è quello di modellare una distribuzione congiunta , …
Se mai c'è stato un caso in cui questo diventa chiaro è con il problema di Monty Hall. Anche il grande Paul Erdos è stato ingannato da questo problema. La mia domanda alla quale può essere difficile rispondere è che cosa c'è sulla probabilità che possiamo essere così fiduciosi di …
Mi chiedo se le probabilità condizionate siano uniche del bayesianismo o se siano più un concetto generale che è condiviso tra diverse scuole di pensiero tra gli statisti / le persone di probabilità. In un certo senso suppongo che lo sia, perché presumo che nessuno possa p(A,B)=p(A|B)p(B)p(UN,B)=p(UN|B)p(B)p(A,B) = p(A|B)p(B) sia …
Innanzi tutto, lasciatemi riconoscere in anticipo che non sono esperto di statistica e matematica come vorrei essere. Qualcuno potrebbe dire di avere abbastanza conoscenze per essere pericoloso. : DI scusami se non sto usando correttamente la terminologia. Sto cercando di modellare le probabilità di un sistema che passa da uno …
Ci sono molte domande (come questa ) su alcune ambiguità con la formula bayesiana in caso continuo. p ( θ | x ) =p ( x | θ ) ⋅ p ( θ )p ( x )p(θ|x)=p(x|θ)⋅p(θ)p(x)p(\theta | x) = \frac{p(x | \theta) \cdot p(\theta)}{p(x)} Spesso, la confusione deriva dal …
Sto cercando di ottenere un'intuizione più chiara dietro: "Se rende più probabile, allora rende più probabile"AUNABBBBBBAUNA Sia la dimensione dello spazio in cui e sono, quindin(S)n(S)n(S)AUNABBB Reclamo: quindiP(B|A)>P(B)P(B|UN)>P(B)P(B|A)>P(B)n(AB)/n(A)>n(B)/n(S)n(UNB)/n(UN)>n(B)/n(S)n(AB)/n(A) > n(B)/n(S) quindin(AB)/n(B)>n(A)/n(S)n(UNB)/n(B)>n(UN)/n(S)n(AB)/n(B) > n(A)/n(S) che èP(A|B)>P(A)P(UN|B)>P(UN)P(A|B)>P(A) Capisco la matematica, ma perché questo ha un senso intuitivo?
Supponiamo di voler calcolare alcune aspettative: EYEX| Y[ f( X, Y) ]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Supponiamo di voler approssimare questo usando la simulazione Monte Carlo. EYEX| Y[ f( X, Y) ] ≈ 1R SΣr = 1RΣs = 1Sf( xr , s, yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Ma supponiamo che è costoso per prelevare dei campioni …
Dato che , il distr condizionale. di è . ha distr marginale. di Poisson ( ), è una costante positiva.N=nN=nN = nYYYχ2(2n)χ2(2n)\chi ^2(2n)NNNθθ\thetaθθ\theta Mostra che, come , nella distribuzione.( Y - E ( Y ) ) / √θ→∞θ→∞\theta \rightarrow \infty (Y−E(Y))/Var(Y)−−−−−−√→N(0,1) (Y−E(Y))/Var(Y)→N(0,1)\space \space (Y - E(Y))/ \sqrt{\operatorname{Var}(Y)} \rightarrow N(0,1) Qualcuno …
Nel documento originale di pLSA l'autore, Thomas Hoffman, traccia un parallelo tra le strutture di dati pLSA e LSA che vorrei discutere con voi. Sfondo: Prendendo ispirazione l'Information Retrieval supponiamo di avere una raccolta di NNN documenti D={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbrace e un vocabolario di MMM …
Supponiamo di avere un campione di frequenze di 4 possibili eventi: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 e ho le probabilità attese dei miei eventi: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Con la somma delle frequenze osservate dei …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.