un metodo per stimare i parametri di un modello statistico scegliendo il valore del parametro che ottimizza la probabilità di osservare il campione dato.
Jeffrey Wooldridge nella sua analisi econometrica dei dati di sezioni trasversali e panel (pagina 357) afferma che l'hessiana empirica "non è garantita per essere definita definita positiva, o anche semidefinita positiva, per il particolare campione con cui stiamo lavorando". Questo mi sembra sbagliato dal momento che (a parte i problemi …
Mi chiedo se la stima della massima verosimiglianza sia mai stata utilizzata nelle statistiche. Ne apprendiamo il concetto, ma mi chiedo quando verrà effettivamente utilizzato. Se assumiamo la distribuzione dei dati, troviamo due parametri, uno per la media e uno per la varianza, ma in realtà li usi in situazioni …
Lasciate θ una stima di massima verosimiglianza di un vero parametro θ * di qualche modello. Poiché il numero di punti di dati n aumenta, l'errore ‖ θ - θ * ‖ tipicamente diminuisce O ( 1 / √θ^\hat\thetaθ∗\theta^*nn∥θ^−θ∗∥\lVert\hat\theta-\theta^*\rVertn )O(1/n−−√)O(1/\sqrt n). Usando la disuguaglianza e le proprietà del triangolo aspettativa, …
Questa domanda riguarda la stima della massima verosimiglianza limitata (REML) in una particolare versione del modello lineare, vale a dire: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), dove X(α)X(α)X(\alpha) è una matrice ( n×pn×pn \times p ) parametrizzata da α∈Rkα∈Rk\alpha \in \mathbb R^k , così come Σ(α)Σ(α)\Sigma(\alpha) …
Nel primo capitolo del libro Geometria algebrica e teoria dell'apprendimento statistico che parla della convergenza delle stime in diversi spazi funzionali, menziona che la stima bayesiana corrisponde alla topologia di distribuzione di Schwartz, mentre la stima della massima verosimiglianza corrisponde alla topologia delle suporegole (a pagina 7): Ad esempio, super-norma, …
Sembra esserci molta confusione nel confronto tra l'uso di glmnetinside caretper cercare un lambda ottimale e l'utilizzo cv.glmnetper fare lo stesso compito. Sono state poste molte domande, ad esempio: Modello di classificazione train.glmnet vs. cv.glmnet? Qual è il modo corretto di usare glmnet con il cursore? Convalida incrociata di `glmnet` …
MLE = stima della massima verosimiglianza MAP = Massimo a posteriori MLE è intuitivo / ingenuo in quanto inizia solo con la probabilità di osservazione dato il parametro (cioè la funzione di probabilità) e cerca di trovare il parametro più adatto all'osservazione . Ma non prende in considerazione la conoscenza …
Dato un set di dati con risultati binari e una matrice predittiva , il modello di regressione logistica standard stima i coefficienti che massimizzano la probabilità binomiale. Quando X è al livello completo \ beta_ {MLE} è unico; quando la separazione perfetta non è presente, è finita.y∈{0,1}ny∈{0,1}ny\in\{0,1\}^nX∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p}βMLEβMLE\beta_{MLE}XXXβMLEβMLE\beta_{MLE} Questo modello …
È una specie di strano pensiero che ho avuto durante la revisione di alcune vecchie statistiche e per qualche motivo non riesco a pensare alla risposta. Un PDF continuo ci dice la densità di osservare i valori in un dato intervallo. Vale a dire, se X∼N(μ,σ2)X∼N(μ,σ2)X \sim N(\mu,\sigma^2) , per …
Di recente ho recensito alcuni vecchi articoli di Nancy Reid, Barndorff-Nielsen, Richard Cox e, sì, un po 'di Ronald Fisher sul concetto di "inferenza condizionale" nel paradigma frequentista, il che sembra significare che le inferenze sono basate considerando solo il "sottoinsieme rilevante" dello spazio campione, non dell'intero spazio campione. Come …
Vedo menzionato in vari punti che ANOVA fa la sua stima usando il metodo dei momenti. Sono confuso da questa affermazione perché, anche se non ho familiarità con il metodo dei momenti, la mia comprensione è che è qualcosa di diverso e non equivalente al metodo della massima probabilità; d'altra …
Questa domanda si ispira alla lunga discussione nei commenti qui: in che modo la regressione lineare usa la distribuzione normale? Nel solito modello di regressione lineare, per semplicità qui scritto con un solo predittore: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i dove xixix_i sono costanti note e ϵiϵi\epsilon_i …
Mentre eseguiamo la regressione se andiamo dalla definizione di: Qual è la differenza tra una probabilità parziale, la probabilità del profilo e la probabilità marginale? quello, massima verosimiglianza Trova β e θ che massimizza L (β, θ | dati). Mentre, verosimiglianza marginale Integriamo θ dall'equazione di verosimiglianza sfruttando il fatto …
Dopo il centraggio, si può presumere che le due misurazioni x e -x siano osservazioni indipendenti da una distribuzione di Cauchy con funzione di densità di probabilità: f(x:θ)=f(x:θ)=f(x :\theta) = 1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞<x<∞,−∞<x<∞, -∞ < x < ∞ Mostra che se x2≤1x2≤1x^2≤ 1 l'MLE di θθ\theta è 0, ma se …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.