Domande taggate «regression»

Tecniche per l'analisi della relazione tra una (o più) variabili "dipendenti" e variabili "indipendenti".


3
Cosa significa R-quadrato negativo?
Supponiamo che io abbia alcuni dati e quindi li metto in forma con un modello (una regressione non lineare). Quindi calcolo l'R-quadrato ( R2R2R^2 ). Quando R-quadrato è negativo, cosa significa? Significa che il mio modello è cattivo? So che l'intervallo di R2R2R^2 può essere [-1,1]. Quando R2R2R^2 è 0, …

3
Regressione logistica o test T?
Un gruppo di persone risponde a una domanda. La risposta può essere "sì" o "no". Il ricercatore vuole sapere se l'età è associata al tipo di risposta. L'associazione è stata valutata facendo una regressione logistica in cui l'età è la variabile esplicativa e il tipo di risposta (sì, no) è …


2
Ha senso usare una variabile data in una regressione?
Non sono abituato a usare le variabili nel formato data in R. Mi chiedo solo se è possibile aggiungere una variabile data come variabile esplicativa in un modello di regressione lineare. Se è possibile, come possiamo interpretare il coefficiente? È l'effetto di un giorno sulla variabile del risultato? Vedi la …






1
Pearson VS Deviance Residuals nella regressione logistica
So che i residui Pearson standardizzati sono ottenuti in modo probabilistico tradizionale: ri=yi−πiπi(1−πi)−−−−−−−−√ri=yi−πiπi(1−πi) r_i = \frac{y_i-\pi_i}{\sqrt{\pi_i(1-\pi_i)}} e Deviance Residuals sono ottenuti attraverso un modo più statistico (il contributo di ciascun punto alla probabilità): di=si−2[yilogπi^+(1−yi)log(1−πi)]−−−−−−−−−−−−−−−−−−−−−−−−−−√di=si−2[yilog⁡πi^+(1−yi)log⁡(1−πi)] d_i = s_i \sqrt{-2[y_i \log \hat{\pi_i} + (1 - y_i)\log(1-\pi_i)]} dove = 1 se = 1 …

1
In quali condizioni la regressione della cresta è in grado di fornire un miglioramento rispetto alla normale regressione dei minimi quadrati?
La regressione di Ridge stima i parametri ββ\boldsymbol \beta in un modello lineare y=Xβy=Xβ\mathbf y = \mathbf X \boldsymbol \beta by β^λ=(X⊤X+λI)−1X⊤y,β^λ=(X⊤X+λI)−1X⊤y,\hat{\boldsymbol \beta}_\lambda = (\mathbf X^\top \mathbf X + \lambda \mathbf I)^{-1} \mathbf X^\top \mathbf y, dove λλ\lambda è un parametro di regolarizzazione. È noto che spesso si comporta meglio …




Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.