Quando si trasformano le variabili, è necessario utilizzare tutta la stessa trasformazione? Ad esempio, posso scegliere e scegliere variabili trasformate diversamente, come in: Sia età, la durata dell'impiego, la durata del soggiorno e il reddito.X1, x2, x3x1,x2,x3x_1,x_2,x_3 Y = B1*sqrt(x1) + B2*-1/(x2) + B3*log(x3) Oppure, devi essere coerente con le …
Sto riscontrando alcuni problemi con la derivazione della soluzione per la regressione della cresta. Conosco la soluzione di regressione senza il termine di regolarizzazione: β= ( XTX)- 1XTy.β=(XTX)−1XTy.\beta = (X^TX)^{-1}X^Ty. Ma dopo aver aggiunto il termine L2 alla funzione di costo, come mai la soluzione diventaλ ∥ β∥22λ‖β‖22\lambda\|\beta\|_2^2 β= ( …
Ammetto di essere relativamente nuovo ai punteggi di propensione e all'analisi causale. Una cosa che non è ovvio per me come nuovo arrivato è come il "bilanciamento" usando i punteggi di propensione sia matematicamente diverso da quello che succede quando aggiungiamo covariate in una regressione? Cosa c'è di diverso nell'operazione, …
Qualcuno sa come capire se i punti 7, 16 e 29 sono punti influenti o no? Ho letto da qualche parte che, poiché la distanza di Cook è inferiore a 1, non lo sono. Ho ragione?
Continuo a leggere sui casi in cui centriamo i dati (ad esempio, con regolarizzazione o PCA) al fine di rimuovere l'intercettazione (come indicato in questa domanda ). So che è semplice, ma sto facendo fatica a comprenderlo intuitivamente. Qualcuno potrebbe fornire l'intuizione o un riferimento che posso leggere?
Ho diverse covariate nel mio calcolo per un modello e non tutte sono statisticamente significative. Devo rimuovere quelli che non lo sono? Questa domanda discute il fenomeno, ma non risponde alla mia domanda: come interpretare l'effetto non significativo di una covariata in ANCOVA? Non c'è nulla nella risposta a quella …
La regressione del minimo angolo e il lazo tendono a produrre percorsi di regolarizzazione molto simili (identici tranne quando un coefficiente attraversa lo zero). Entrambi possono essere adattati in modo efficiente da algoritmi praticamente identici. C'è mai qualche motivo pratico per preferire un metodo rispetto all'altro?
La mia domanda è: dobbiamo standardizzare il set di dati per assicurarci che tutte le variabili abbiano la stessa scala, tra [0,1], prima di adattare la regressione logistica. La formula è: Xio- min ( xio)max ( xio) - min ( xio)Xio-min(Xio)max(Xio)-min(Xio)\frac{x_i-\min(x_i)}{\max(x_i)-\min(x_i)} Il mio set di dati ha 2 variabili, descrivono …
Se la regressione polinomiale modella relazioni non lineari, come può essere considerato un caso speciale di regressione lineare multipla? Wikipedia osserva che "Sebbene la regressione polinomiale si adatti a un modello non lineare ai dati, come problema di stima statistica è lineare, nel senso che la funzione di regressione è …
Sto facendo una regressione multivariata di Cox, ho le mie significative variabili indipendenti e valori beta. Il modello si adatta molto bene ai miei dati. Ora, vorrei usare il mio modello e prevedere la sopravvivenza di una nuova osservazione. Non sono chiaro come farlo con un modello Cox. In una …
Sto tentando di eseguire una regressione OLS: DV: variazione di peso nell'arco di un anno (peso iniziale - peso finale) IV: se ti alleni o meno. Tuttavia, sembra ragionevole che le persone più pesanti perderanno più peso per unità di esercizio rispetto alle persone più magre. Pertanto, volevo includere una …
Sono abbastanza nuovo su questo con i test binomiali dei dati, ma dovevo farne uno e ora non sono sicuro di come interpretare il risultato. La variabile y, la variabile di risposta, è binomiale e i fattori esplicativi sono continui. Questo è ciò che ho ottenuto riassumendo il risultato: glm(formula …
Ho notato che in R, Poisson e le regressioni binomiali negative (NB) sembrano sempre corrispondere agli stessi coefficienti per i predittori categorici, ma non continui. Ad esempio, ecco una regressione con un predittore categorico: data(warpbreaks) library(MASS) rs1 = glm(breaks ~ tension, data=warpbreaks, family="poisson") rs2 = glm.nb(breaks ~ tension, data=warpbreaks) #compare …
TL, DR: sembra che, contrariamente ai consigli spesso ripetuti, convalida incrociata una tantum (LOO-CV) - cioèKKK -piega CV conKKK (il numero di pieghe) uguale aNNN (il numero di osservazioni di addestramento) - fornisce stime dell'errore di generalizzazione che sono le meno variabili per qualsiasiKKK , non la più variabile, assumendo …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.