Statistiche e Big Data

Domande e risposte per le persone interessate alle statistiche, all'apprendimento automatico, all'analisi dei dati, al data mining e alla visualizzazione dei dati


6
Probabilità - Perché moltiplicare?
Sto studiando la stima della massima verosimiglianza e leggo che la funzione di verosimiglianza è il prodotto delle probabilità di ciascuna variabile. Perché è il prodotto? Perché non la somma? Ho cercato di cercare su Google ma non riesco a trovare risposte significative. https://en.wikipedia.org/wiki/Maximum_likelihood





1
Perché la distribuzione campionaria della varianza è una distribuzione chi-quadrata?
La dichiarazione La distribuzione campionaria della varianza del campione è una distribuzione chi-quadrato con grado di libertà uguale a n−1n−1n-1 , dove nnn è la dimensione del campione (dato che la variabile casuale di interesse è normalmente distribuita). fonte La mia intuizione In un certo senso ha un senso intuitivo …

2
Perché ottengo la varianza zero di un effetto casuale nel mio modello misto, nonostante alcune variazioni nei dati?
Abbiamo eseguito una regressione logistica a effetti misti utilizzando la sintassi seguente; # fit model fm0 <- glmer(GoalEncoding ~ 1 + Group + (1|Subject) + (1|Item), exp0, family = binomial(link="logit")) # model output summary(fm0) Oggetto e oggetto sono gli effetti casuali. Stiamo ottenendo un risultato dispari che è il coefficiente …


3
Perché la massima probabilità e la probabilità non prevista?
Perché è così comune ottenere stime della massima verosimiglianza dei parametri, ma non si sente praticamente mai delle stime dei parametri di verosimiglianza attese (cioè, basate sul valore atteso piuttosto che sulla modalità di una funzione di verosimiglianza)? Questo è principalmente per ragioni storiche o per ragioni tecniche o teoriche …


3
Come può un precedente improprio portare a una corretta distribuzione posteriore?
Sappiamo che nel caso di un'adeguata distribuzione precedente, P(θ∣X)=P(X∣θ)P(θ)P(X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} ∝P(X∣θ)P(θ)∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) . La solita giustificazione per questo passaggio è che la distribuzione marginale di , , è costante rispetto a e può quindi essere ignorata quando si ottiene la distribuzione posteriore.XXXP(X)P(X)P(X)θθ\theta …



2
Clustering di una matrice binaria
Ho una matrice semi-piccola di caratteristiche binarie di dimensione 250k x 100. Ogni riga è un utente e le colonne sono "tag" binari di alcuni comportamenti dell'utente, ad esempio "like_cats". user 1 2 3 4 5 ... ------------------------- A 1 0 1 0 1 B 0 1 0 1 0 …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.