Diciamo che ho un amico (chiamiamolo "George") che dice che può controllare il tiro di dadi usando la sua mente (cioè, rendere i dadi più probabilità di cadere su un numero specifico a cui sta pensando). Come posso progettare un test scientificamente rigoroso per determinare se può effettivamente farlo? (Non …
Chiuso . Questa domanda è basata sull'opinione . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che possa essere risolta con fatti e citazioni modificando questo post . Chiuso 7 mesi fa . sfondo Ho letto di StatProb.com da un commento sul blog di …
Una tipica statistica di elaborazione delle immagini è l'uso delle funzioni della trama di Haralick , che sono 14. Mi chiedo la quattordicesima di queste caratteristiche: data una mappa di adiacenza (che possiamo semplicemente visualizzare una distribuzione empirica di due numeri interi i , j < 256 ), è definita …
Qual è il modo migliore per approssimare per due date interi quando si sa che i media , varianza , asimmetria e curtosi in eccesso di una discreta distribuzione di , ed è chiaro dalle misure (diverse da zero) di forma e che un'approssimazione normale non è appropriata?Pr [ n …
Per due distribuzioni discrete e , l'entropia incrociata è definita comepppqqq H( p , q) = - ∑Xp ( x ) logq( x ) .H(p,q)=-ΣXp(X)logq(X).H(p,q)=-\sum_x p(x)\log q(x). Mi chiedo perché questa sarebbe una misura intuitiva della distanza tra due distribuzioni di probabilità? Vedo che è l'entropia di , che misura …
Ho un problema simile alla domanda posta qui: Come si misura la non uniformità di una distribuzione? Ho una serie di distribuzioni di probabilità durante i giorni della settimana. Voglio misurare quanto è vicina ogni distribuzione (1 / 7,1 / 7, ..., 1/7). Al momento sto usando una risposta dalla …
Quindi so che se vogliamo trovare la distribuzione di probabilità di una somma di variabili casuali indipendenti , possiamo calcolarla dalle distribuzioni di probabilità di e , dicendoX+YX+YX + YXXXYYY fX+Y(a)=∫∞x=−∞fX,Y(X=x,Y=a−x) dx=∫∞x=−∞fX(x)fY(a−x) dxfX+Y(a)=∫x=−∞∞fX,Y(X=x,Y=a−x) dx=∫x=−∞∞fX(x)fY(a−x) dxf_{X + Y}(a) = \int_{x = -\infty}^{\infty} f_{X, Y}(X = x, Y = a - x)~dx …
Ho un quadrato 2D e ho una serie di punti al suo interno, diciamo 1000 punti. Ho bisogno di un modo per vedere se la distribuzione dei punti all'interno del quadrato è diffusa (o più o meno uniformemente distribuita) o stanno tendendo a riunirsi in qualche punto all'interno del quadrato. …
Qui, "peso dell'evidenza" (WOE) è un termine comune nella letteratura scientifica e politica pubblicata, il più delle volte visto nel contesto della valutazione del rischio, definito da: w(e:h)=logp(e|h)p(e|h¯¯¯)w(e:h)=logp(e|h)p(e|h¯)w(e : h) = \log\frac{p(e|h)}{p(e|\overline{h})} dove è evidenza, è ipotesi.eeehhh Ora, voglio sapere qual è la differenza principale con PMI (informazioni reciproche puntuali) …
Questo tipo separato di distribuzione (EX: binomiale, bernoulli, multinomiale) o qualsiasi distribuzione può essere rappresentato in questo modo? Qualcuno può elaborare con un semplice esempio
Supponiamo che XXX e YYY siano normali bivariati con media μ=(μ1,μ2)μ=(μ1,μ2)\mu=(\mu_1,\mu_2) e covarianza Σ=[σ11σ12σ12σ22]Σ=[σ11σ12σ12σ22]\Sigma = \begin{bmatrix} \sigma_{11} & \sigma_{12} \\ \sigma_{12} & \sigma_{22} \\ \end{bmatrix} . Qual è la probabilità Pr(X<Y|min(X,Y))Pr(X<Y|min(X,Y))\Pr\left(X<Y|\min\left(X,Y\right)\right) ?
Sono stato molto incuriosito dalla risposta qui. Vorrei avere una spiegazione più profana sul significato delle probabilità negative e sulle loro applicazioni, possibilmente con esempi. Ad esempio, cosa significherebbe per un evento avere una probabilità del -10%, secondo queste estese misure di probabilità?
Considera un grafico casuale Erdos-Renyi G=(V(n),E(p))G=(V(n),E(p))G=(V(n),E(p)) . L'insieme di nnn vertici VVV è etichettato da V={1,2,…,n}V={1,2,…,n}V = \{1,2,\ldots,n\} . L'insieme dei bordi EEE è costruito da un processo casuale. Sia ppp una probabilità 0<p<10<p<10<p<1 , quindi ogni coppia non ordinata {i,j}{i,j}\{i,j\} di vertici ( i≠ji≠ji \neq j ) si presenta …
Assiomaticamente, la probabilità è una funzione che assegna un numero reale P ( A ) a ciascun evento A se soddisfa i tre presupposti fondamentali (i presupposti di Kolmogorov):PPPP(A)P(A)P(A)AAA P(A)≥0 for everyAP(A)≥0 for everyAP(A) \geq 0 \ \text{for every} A P(Ω)=1P(Ω)=1P(\Omega) = 1 If A1,A2,⋯are disjoint, thenP(⋃∞i=1Ai)=∑i=1∞P(Ai)If A1,A2,⋯are disjoint, thenP(⋃i=1∞Ai)=∑i=1∞P(Ai)\text{If} …
Supponiamo di avere 3 variabili casuali e conosciamo la distribuzione marginale a coppie P ( X 1 , X 2 ) , P ( X 2 , X 3 ) , P ( X 3 , X 1 ) , ma non sappiamo nient'altro (come l'indipendenza condizionale). Possiamo ottenere la …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.