Domande taggate «regression»

Tecniche per l'analisi della relazione tra una (o più) variabili "dipendenti" e variabili "indipendenti".

1
Regressione: trasformazione delle variabili
Quando si trasformano le variabili, è necessario utilizzare tutta la stessa trasformazione? Ad esempio, posso scegliere e scegliere variabili trasformate diversamente, come in: Sia età, la durata dell'impiego, la durata del soggiorno e il reddito.X1, x2, x3x1,x2,x3x_1,x_2,x_3 Y = B1*sqrt(x1) + B2*-1/(x2) + B3*log(x3) Oppure, devi essere coerente con le …

5
Come derivare la soluzione di regressione della cresta?
Sto riscontrando alcuni problemi con la derivazione della soluzione per la regressione della cresta. Conosco la soluzione di regressione senza il termine di regolarizzazione: β= ( XTX)- 1XTy.β=(XTX)−1XTy.\beta = (X^TX)^{-1}X^Ty. Ma dopo aver aggiunto il termine L2 alla funzione di costo, come mai la soluzione diventaλ ∥ β∥22λ‖β‖22\lambda\|\beta\|_2^2 β= ( …

5
In che modo i punteggi di propensione sono diversi dall'aggiunta di covariate in una regressione e quando sono preferiti a quest'ultima?
Ammetto di essere relativamente nuovo ai punteggi di propensione e all'analisi causale. Una cosa che non è ovvio per me come nuovo arrivato è come il "bilanciamento" usando i punteggi di propensione sia matematicamente diverso da quello che succede quando aggiungiamo covariate in una regressione? Cosa c'è di diverso nell'operazione, …



4
Le covariate non statisticamente significative dovrebbero essere "mantenute" durante la creazione di un modello?
Ho diverse covariate nel mio calcolo per un modello e non tutte sono statisticamente significative. Devo rimuovere quelli che non lo sono? Questa domanda discute il fenomeno, ma non risponde alla mia domanda: come interpretare l'effetto non significativo di una covariata in ANCOVA? Non c'è nulla nella risposta a quella …

6
Regressione del minimo angolo rispetto al lazo
La regressione del minimo angolo e il lazo tendono a produrre percorsi di regolarizzazione molto simili (identici tranne quando un coefficiente attraversa lo zero). Entrambi possono essere adattati in modo efficiente da algoritmi praticamente identici. C'è mai qualche motivo pratico per preferire un metodo rispetto all'altro?
39 regression  lasso 


3
Perché la regressione polinomiale è considerata un caso speciale di regressione lineare multipla?
Se la regressione polinomiale modella relazioni non lineari, come può essere considerato un caso speciale di regressione lineare multipla? Wikipedia osserva che "Sebbene la regressione polinomiale si adatti a un modello non lineare ai dati, come problema di stima statistica è lineare, nel senso che la funzione di regressione è …

5
Predizione nella regressione di Cox
Sto facendo una regressione multivariata di Cox, ho le mie significative variabili indipendenti e valori beta. Il modello si adatta molto bene ai miei dati. Ora, vorrei usare il mio modello e prevedere la sopravvivenza di una nuova osservazione. Non sono chiaro come farlo con un modello Cox. In una …

8
È valido includere una misura di base come variabile di controllo quando si verifica l'effetto di una variabile indipendente sui punteggi delle modifiche?
Sto tentando di eseguire una regressione OLS: DV: variazione di peso nell'arco di un anno (peso iniziale - peso finale) IV: se ti alleni o meno. Tuttavia, sembra ragionevole che le persone più pesanti perderanno più peso per unità di esercizio rispetto alle persone più magre. Pertanto, volevo includere una …


3
Deriva la varianza del coefficiente di regressione nella regressione lineare semplice
Nella regressione lineare semplice, abbiamo y=β0+β1x+uy=β0+β1x+uy = \beta_0 + \beta_1 x + u , dove u∼iidN(0,σ2)u∼iidN(0,σ2)u \sim iid\;\mathcal N(0,\sigma^2) . Ho derivato lo stimatore: β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 ,β1^=∑i(xi−x¯)(yi−y¯)∑i(xi−x¯)2 , \hat{\beta_1} = \frac{\sum_i (x_i - \bar{x})(y_i - \bar{y})}{\sum_i (x_i - \bar{x})^2}\ , dovex¯x¯\bar{x} ey¯y¯\bar{y} sono i mezzi di campionamento dixxxedyyy. Ora voglio trovare …

2
Quando Poisson e le regressioni binomiali negative si adattano agli stessi coefficienti?
Ho notato che in R, Poisson e le regressioni binomiali negative (NB) sembrano sempre corrispondere agli stessi coefficienti per i predittori categorici, ma non continui. Ad esempio, ecco una regressione con un predittore categorico: data(warpbreaks) library(MASS) rs1 = glm(breaks ~ tension, data=warpbreaks, family="poisson") rs2 = glm.nb(breaks ~ tension, data=warpbreaks) #compare …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.