Domande taggate «maximum-likelihood»

un metodo per stimare i parametri di un modello statistico scegliendo il valore del parametro che ottimizza la probabilità di osservare il campione dato.



6
Usiamo mai la stima della massima verosimiglianza?
Mi chiedo se la stima della massima verosimiglianza sia mai stata utilizzata nelle statistiche. Ne apprendiamo il concetto, ma mi chiedo quando verrà effettivamente utilizzato. Se assumiamo la distribuzione dei dati, troviamo due parametri, uno per la media e uno per la varianza, ma in realtà li usi in situazioni …

2
Per quali modelli la distorsione dell'MLE diminuisce più velocemente della varianza?
Lasciate θ una stima di massima verosimiglianza di un vero parametro θ * di qualche modello. Poiché il numero di punti di dati n aumenta, l'errore ‖ θ - θ * ‖ tipicamente diminuisce O ( 1 / √θ^\hat\thetaθ∗\theta^*nn∥θ^−θ∗∥\lVert\hat\theta-\theta^*\rVertn )O(1/n−−√)O(1/\sqrt n). Usando la disuguaglianza e le proprietà del triangolo aspettativa, …

1
Probabilità massima limitata con un rango di colonna inferiore a
Questa domanda riguarda la stima della massima verosimiglianza limitata (REML) in una particolare versione del modello lineare, vale a dire: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), dove X(α)X(α)X(\alpha) è una matrice ( n×pn×pn \times p ) parametrizzata da α∈Rkα∈Rk\alpha \in \mathbb R^k , così come Σ(α)Σ(α)\Sigma(\alpha) …

1
Perché dovremmo discutere i comportamenti di convergenza di diversi stimatori in diverse topologie?
Nel primo capitolo del libro Geometria algebrica e teoria dell'apprendimento statistico che parla della convergenza delle stime in diversi spazi funzionali, menziona che la stima bayesiana corrisponde alla topologia di distribuzione di Schwartz, mentre la stima della massima verosimiglianza corrisponde alla topologia delle suporegole (a pagina 7): Ad esempio, super-norma, …

1
Caret glmnet vs cv.glmnet
Sembra esserci molta confusione nel confronto tra l'uso di glmnetinside caretper cercare un lambda ottimale e l'utilizzo cv.glmnetper fare lo stesso compito. Sono state poste molte domande, ad esempio: Modello di classificazione train.glmnet vs. cv.glmnet? Qual è il modo corretto di usare glmnet con il cursore? Convalida incrociata di `glmnet` …


1
Una regressione logistica che massimizza la probabilità necessariamente anche massimizza l'AUC rispetto ai modelli lineari?
Dato un set di dati con risultati binari e una matrice predittiva , il modello di regressione logistica standard stima i coefficienti che massimizzano la probabilità binomiale. Quando X è al livello completo \ beta_ {MLE} è unico; quando la separazione perfetta non è presente, è finita.y∈{0,1}ny∈{0,1}ny\in\{0,1\}^nX∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p}βMLEβMLE\beta_{MLE}XXXβMLEβMLE\beta_{MLE} Questo modello …




3
Regressione lineare: qualsiasi distribuzione non normale che dà identità di OLS e MLE?
Questa domanda si ispira alla lunga discussione nei commenti qui: in che modo la regressione lineare usa la distribuzione normale? Nel solito modello di regressione lineare, per semplicità qui scritto con un solo predittore: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i dove xixix_i sono costanti note e ϵiϵi\epsilon_i …


1
MLE del parametro location in una distribuzione di Cauchy
Dopo il centraggio, si può presumere che le due misurazioni x e -x siano osservazioni indipendenti da una distribuzione di Cauchy con funzione di densità di probabilità: f(x:θ)=f(x:θ)=f(x :\theta) = 1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Mostra che se x2≤1x2≤1x^2≤ 1 l'MLE di θθ\theta è 0, ma se …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.