Domande taggate «generalized-linear-model»

Una generalizzazione della regressione lineare che consente alle relazioni non lineari tramite una "funzione di collegamento" e che la varianza della risposta dipenda dal valore previsto. (Da non confondere con il "modello lineare generale" che estende il modello lineare ordinario alla struttura generale della covarianza e alla risposta multivariata.)






2
Perché esattamente la regressione beta non può gestire 0 e 1 nella variabile di risposta?
La regressione beta (ovvero GLM con distribuzione beta e di solito la funzione di collegamento logit) è spesso consigliata per gestire la risposta nota come variabile dipendente che assume valori compresi tra 0 e 1, come frazioni, rapporti o probabilità: regressione per un risultato (rapporto o frazione) tra 0 e …

3
Quale algoritmo di ottimizzazione viene utilizzato nella funzione glm in R?
È possibile eseguire una regressione del log in R utilizzando tale codice: > library(MASS) > data(menarche) > glm.out = glm(cbind(Menarche, Total-Menarche) ~ Age, + family=binomial(logit), data=menarche) > coefficients(glm.out) (Intercept) Age -21.226395 1.631968 Sembra che l'algoritmo di ottimizzazione sia converto - ci sono informazioni sul numero di passaggi dell'algoritmo di punteggio …




5
Come specificare una distribuzione lognormale nell'argomento della famiglia glm in R?
Domanda semplice: come specificare una distribuzione lognormale nell'argomento della famiglia GLM in R? Non sono riuscito a trovare come raggiungere questo obiettivo. Perché lognormal (o esponenziale) non è un'opzione nell'argomento della famiglia? Da qualche parte negli archivi R ho letto che si deve semplicemente usare il log-link per la famiglia …


1
Pearson VS Deviance Residuals nella regressione logistica
So che i residui Pearson standardizzati sono ottenuti in modo probabilistico tradizionale: ri=yi−πiπi(1−πi)−−−−−−−−√ri=yi−πiπi(1−πi) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} e Deviance Residuals sono ottenuti attraverso un modo più statistico (il contributo di ciascun punto alla probabilità): di=si−2[yilogπi^+(1−yi)log(1−πi)]−−−−−−−−−−−−−−−−−−−−−−−−−−√di=si−2[yilog⁡πi^+(1−yi)log⁡(1−πi)] d_i = s_i \sqrt{-2[y_i \log \hat{\pi_i} + (1 - y_i)\log(1-\pi_i)]} dove = 1 se = 1 …



Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.