Supponiamo che si adatti una regressione lineare / logistica g(y)=a0+a1⋅x1+a2⋅x2g(y)=a0+a1⋅x1+a2⋅x2g(y) = a_0 + a_1\cdot x_1 + a_2\cdot x_2 , con l'obiettivo di una stima imparziale di . Sei molto sicuro che sia che siano molto positivi rispetto al rumore nelle loro stime.a1a2a1a2\frac{a_1}{a_2}a1a1a_1a2a2a_2 Se si dispone della covarianza congiunta di , …
Sto sperimentando l'algoritmo della macchina per aumentare il gradiente tramite il caretpacchetto in R. Utilizzando un piccolo set di dati di ammissione al college, ho eseguito il seguente codice: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- …
Attualmente sto cercando di applicare un modello lineare ( family = gaussian) a un indicatore di biodiversità che non può assumere valori inferiori a zero, è gonfiato a zero ed è continuo. I valori vanno da 0 a poco più di 0,25. Di conseguenza, esiste un modello abbastanza evidente nei …
Ho un esempio funzionante (in R), che sto cercando di capire ulteriormente. Sto usando Limma per creare un modello lineare e sto cercando di capire cosa sta succedendo passo dopo passo nei calcoli del cambio di piega. Sto principalmente cercando di capire cosa succede per calcolare i coefficienti. Da quello …
Per un modello lineare la soluzione OLS fornisce il miglior stimatore lineare imparziale per i parametri. Naturalmente possiamo scambiare una propensione per una minore varianza, ad esempio la regressione della cresta. Ma la mia domanda è di non avere pregiudizi. Ci sono altri stimatori che sono in qualche modo comunemente …
Sto cercando di capire il compromesso di bias-varianza, la relazione tra il bias dello stimatore e il bias del modello e la relazione tra la varianza dello stimatore e la varianza del modello. Sono giunto a queste conclusioni: Tendiamo a sovrautilizzare i dati quando trascuriamo il bias dello stimatore, cioè …
Sto cercando di vedere se scegliere regressione della cresta , LASSO , regressione del componente principale (PCR) o Minimi quadrati parziali (PLS) in una situazione in cui vi sono un gran numero di variabili / caratteristiche ( ) e un numero minore di campioni ( ) e il mio obiettivo …
Sto cercando di fare una regressione sui dati eteroscedastici in cui sto cercando di prevedere le varianze di errore e i valori medi in termini di un modello lineare. Qualcosa come questo: y(x,t)ξ(x,t)y¯(x,t)σ(x,t)=y¯(x,t)+ξ(x,t),∼N(0,σ(x,t)),=y0+ax+bt,=σ0+cx+dt.y(x,t)=y¯(x,t)+ξ(x,t),ξ(x,t)∼N(0,σ(x,t)),y¯(x,t)=y0+ax+bt,σ(x,t)=σ0+cx+dt.\begin{align}\\ y\left(x,t\right) &= \bar{y}\left(x,t\right)+\xi\left(x,t\right),\\ \xi\left(x,t\right) &\sim N\left(0,\sigma\left(x,t\right)\right),\\ \bar{y}\left(x,t\right) &= y_{0}+ax+bt,\\ \sigma\left(x,t\right) &= \sigma_{0}+cx+dt. \end{align} In parole, i dati …
Ho raggiunto una forte relazione lineare tra la mia variabile XXX e dopo aver trasformato doppiamente la risposta. Il modello era ma l'ho trasformato in migliorando da .19 a .76.YYYY∼XY∼XY\sim XYX−−√∼X−−√YX∼X\sqrt{\frac{Y}{X}}\sim \sqrt{X}R2R2R^2 Chiaramente ho fatto un discreto intervento chirurgico su questa relazione. Qualcuno può discutere le insidie di farlo, come …
I test di permutazione (chiamati anche test di randomizzazione, test di ri-randomizzazione o test esatto) sono molto utili e sono utili quando l'assunzione della distribuzione normale richiesta da per esempio t-testnon è soddisfatta e quando la trasformazione dei valori per classifica del test non parametrici come Mann-Whitney-U-testquesto porterebbero alla perdita …
Ho alcuni dati (158 casi) derivati da una risposta in scala Likert a 21 articoli del questionario. Voglio davvero / ho bisogno di eseguire un'analisi di regressione per vedere quali elementi del questionario prevedono la risposta a un elemento complessivo (soddisfazione). Le risposte non sono normalmente distribuite (secondo i test …
Da Wikipedia Le osservazioni influenti sono quelle osservazioni che hanno un effetto relativamente grande sulle previsioni del modello di regressione. Da Wikipedia I punti di leva sono quelle eventuali osservazioni fatte a valori estremi o periferici delle variabili indipendenti in modo tale che la mancanza di osservazioni vicine significhi che …
Ho alcuni dati limitati tra 0 e 1. Ho usato il betaregpacchetto in R per adattare un modello di regressione con i dati limitati come variabile dipendente. La mia domanda è: come interpretare i coefficienti dalla regressione?
Per quanto ho capito, spiega quanto bene il modello preveda l'osservazione. rettificato è quello che tiene conto di più osservazioni (o gradi di libertà). Quindi, Adjusted R ^ 2 predice meglio il modello? Allora perché è inferiore a R ^ 2R2R2R^2R2R2R^2R2R2R^2R2R2R^2 ? Sembra che dovrebbe essere spesso di più.
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.