Domande taggate «maximum-likelihood»

un metodo per stimare i parametri di un modello statistico scegliendo il valore del parametro che ottimizza la probabilità di osservare il campione dato.

1
Cross-Entropy o Log Likelihood nel livello Output
Ho letto questa pagina: http://neuralnetworksanddeeplearning.com/chap3.html e diceva che lo strato di output sigmoideo con entropia incrociata è abbastanza simile allo strato di output softmax con verosimiglianza logaritmica. cosa succede se utilizzo sigmoid con verosimiglianza log o softmax con entropia incrociata nel livello di output? va bene? perché vedo che c'è …

5
Come gestire i dati gerarchici / nidificati nell'apprendimento automatico
Spiegherò il mio problema con un esempio. Supponiamo di voler prevedere il reddito di un individuo in base ad alcuni attributi: {Età, Genere, Paese, Regione, Città}. Hai un set di dati di allenamento come questo train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
Che tipo di informazioni sono le informazioni di Fisher?
Supponiamo di avere una variabile casuale X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta) . Se θ0θ0\theta_0 fosse il parametro vero, la funzione di verosimiglianza dovrebbe essere massimizzata e la derivata uguale a zero. Questo è il principio alla base dello stimatore della massima verosimiglianza. A quanto ho capito, le informazioni di Fisher sono definite …



5
Stima della massima verosimiglianza - perché viene utilizzato nonostante sia distorto in molti casi
La stima della massima verosimiglianza si traduce spesso in stimatori distorti (ad esempio, la sua stima per la varianza del campione è distorta per la distribuzione gaussiana). Cosa lo rende quindi così popolare? Perché esattamente è usato così tanto? Inoltre, cosa lo rende in particolare migliore rispetto all'approccio alternativo: il …


2
Quando dovrei * non * usare la funzione nlm di R per MLE?
Ho incontrato un paio di guide che suggeriscono di usare R's nlm per la massima stima della probabilità. Ma nessuno di essi (inclusa la documentazione di R ) fornisce molte indicazioni teoriche su quando utilizzare o meno la funzione. Per quanto ne so, nlm sta solo facendo una discesa gradiente …





2
Come derivare la funzione di probabilità per la distribuzione binomiale per la stima dei parametri?
Secondo la probabilità e le statistiche di Miller e Freund per gli ingegneri, 8ed (pp.217-218), la funzione di probabilità da massimizzare per la distribuzione binomiale (prove di Bernoulli) è data come L ( p ) = ∏ni = 1pXio( 1 - p )1 - xioL(p)=Πio=1npXio(1-p)1-XioL(p) = \prod_{i=1}^np^{x_i}(1-p)^{1-x_i} Come arrivare a …

1
In R, dato un output di optim con una matrice hessiana, come calcolare gli intervalli di confidenza dei parametri usando la matrice hessiana?
Dato un output da optim con una matrice hessiana, come calcolare gli intervalli di confidenza dei parametri usando la matrice hessian? fit<-optim(..., hessian=T) hessian<-fit$hessian Sono principalmente interessato al contesto della massima verosimiglianza, ma sono curioso di sapere se il metodo può essere esteso oltre.

4
Come garantire le proprietà della matrice di covarianza quando si adatta il modello normale multivariato utilizzando la massima probabilità?
Supponiamo di avere il seguente modello yi=f(xi,θ)+εiyi=f(xi,θ)+εiy_i=f(x_i,\theta)+\varepsilon_i dove , è un vettore di variabili esplicative, sono i parametri della funzione non lineare e , dove è naturalmente matrice.yi∈RKyi∈RKy_i\in \mathbb{R}^Kxixix_iθθ\thetafffεi∼N(0,Σ)εi∼N(0,Σ)\varepsilon_i\sim N(0,\Sigma)ΣΣ\SigmaK×KK×KK\times K L'obiettivo è il solito per stimare e \ Sigma . La scelta ovvia è il metodo della massima verosimiglianza. …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.