La formula per la varianza informatica ha nel denominatore:(n−1)(n−1)(n-1) s2=∑Ni=1(xi−x¯)2n−1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} Mi sono sempre chiesto perché. Tuttavia, leggere e guardare alcuni buoni video sul "perché" è, a quanto pare, è un buon stimatore imparziale della varianza della popolazione. Considerando che sottovaluta e sopravvaluta la varianza della …
Ho problemi a derivare la formula della divergenza KL ipotizzando due distribuzioni normali multivariate. Ho fatto il caso univariato abbastanza facilmente. Tuttavia, è passato un po 'di tempo da quando ho preso le statistiche matematiche, quindi ho qualche problema ad estenderlo al caso multivariato. Sono sicuro che mi manca qualcosa …
Come afferma la domanda: è possibile provare l'ipotesi nulla? Dalla mia (limitata) comprensione dell'ipotesi, la risposta è no ma non riesco a trovare una spiegazione rigorosa per questo. La domanda ha una risposta definitiva?
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso 2 anni fa . Sto usando il cursore per eseguire una foresta casuale convalidata in modo incrociato su un set di …
Ho un problema con la prova di E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X)∈argming(X)E[(Y−g(X))2]E(Y|X) \in \arg \min_{g(X)} E\Big[\big(Y - g(X)\big)^2\Big] che molto probabilmente rivelano un più profondo fraintendimento di aspettative e aspettative condizionate. La prova che conosco è la seguente (un'altra versione di questa prova può essere trovata qui ) ===argming(X)E[(Y−g(x))2]argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]argming(X)E[(Y−g(x))2]=argming(X)E[(Y−E(Y|X)+E(Y|X)−g(X))2]=argming(x)E[(Y−E(Y|X))2+2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]=argming(x)E[2(Y−E(Y|X))(E(Y|X)−g(X))+(E(Y|X)−g(X))2]\begin{align*} &\arg \min_{g(X)} E\Big[\big(Y - g(x)\big)^2\Big]\\ …
Il testo di Wackerly et al afferma questo teorema "Sia e denotano rispettivamente le funzioni generatrici del momento delle variabili casuali X e Y. Se esistono entrambe le funzioni generatrici del momento e per tutti i valori di t, allora X e Y hanno la stessa distribuzione di probabilità. " …
Tratto da Grimmet e Stirzaker : Mostra che non può essere il caso cui è uniformemente distribuito su [0,1] e e sono indipendenti e identicamente distribuiti. Non si deve supporre che X e Y siano variabili continue.U X YU=X+YU=X+YU=X+YUUUXXXYYY Una semplice prova per suffissi contraddizione per il caso in cui …
Da Wikipedia , la correlazione di rango di Spearman viene calcolata convertendo le variabili e in variabili classificate e e quindi calcolando la correlazione di Pearson tra le variabili classificate:Y i x i y iXiXiX_iYiYiY_ixixix_iyiyiy_i Tuttavia, l'articolo continua affermando che se non ci sono legami tra le variabili e , …
Di recente ho incontrato la distribuzione bivariata di Poisson, ma sono un po 'confuso su come possa essere derivato. La distribuzione è data da: P ( X = x , Y = y ) = e - ( θ 1 + θ 2 + θ 0 ) θ x 1x …
Apparentemente è il caso che se Xi∼N(0,1)Xi∼N(0,1)X_i \sim N(0,1) , allora X1X2+X3X4∼Laplace(0,1)X1X2+X3X4∼Laplace(0,1)X_1 X_2 + X_3 X_4 \sim \mathrm{Laplace(0,1)} Ho visto documenti su forme quadratiche arbitrarie, che si traducono sempre in orribili espressioni chi-quadrate non centrali. La semplice relazione di cui sopra non mi sembra affatto ovvia, quindi (se è vero!) …
In Elements of Statistical Learning , viene introdotto un problema per evidenziare i problemi con k-nn in spazi ad alta dimensione. Esistono punti dati distribuiti uniformemente in una sfera di unità dimensionale.NNNppp La distanza mediana dall'origine al punto dati più vicino è data dall'espressione: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Quando , la …
Come puoi dimostrare che le equazioni normali: hanno una o più soluzioni senza supporre che X sia invertibile?(XTX)β=XTY(XTX)β=XTY(X^TX)\beta = X^TY La mia unica ipotesi è che abbia qualcosa a che fare con l'inverso generalizzato, ma sono totalmente perso.
Quando le notizie parlano di cose "provate statisticamente", usano correttamente un concetto di statistica ben definito, lo usano in modo sbagliato o usano semplicemente un ossimoro? Immagino che una "prova statistica" non sia effettivamente eseguita per dimostrare un'ipotesi, né una prova matematica, ma piuttosto un "test statistico".
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.