Quando stima una differenza nel modello di differenze con due periodi di tempo, il modello di regressione equivalente sarebbe un. Yi s t= α + γS∗ Tr e a t m e n t + λ dt+ δ∗ ( Tr e a t m e n t ∗ dt) + …
con la mia regressione OLS: dove D è una variabile fittizia, le stime diventano diverse da zero con un valore p basso. Quindi eseguo un test di RESET Ramsey e scopro di avere un po 'di errori nell'equazione, quindi includo un quadrato x: y = β 0 + β 1 …
Di recente ho analizzato un esperimento che ha manipolato 2 variabili categoriche e una variabile continua usando ANCOVA. Tuttavia, un revisore ha suggerito che la regressione multipla con la variabile categoriale codificata come variabili fittizie è un test più appropriato per esperimenti con variabili sia categoriche sia continue. Quando è …
Supponiamo che io voglia costruire un modello per prevedere un qualche tipo di rapporto o percentuale. Ad esempio, supponiamo che io voglia prevedere il numero di ragazzi contro ragazze che parteciperanno a una festa, e le caratteristiche della festa che posso usare nel modello sono cose come la quantità di …
Sono corretto nel comprendere che l'ordine in cui le variabili sono specificate in un ANOVA multifattoriale fa la differenza ma che l'ordine non ha importanza quando si esegue una regressione lineare multipla? Supponendo quindi un risultato come la perdita di sangue misurata y e due variabili categoriche metodo di adenoidectomia …
È stato suggerito da Angrist e Pischke che errori standard robusti (cioè robusti all'eteroschedasticità o alle disparità di differenze) sono segnalati come una cosa ovvia piuttosto che testarli. Due domande: Qual è l'impatto sugli errori standard nel farlo in caso di omoschedasticità? Qualcuno lo fa davvero nel loro lavoro?
Sono nuovo di ottimizzazione. Continuo a vedere equazioni che hanno un apice 2 e un pedice 2 sul lato destro di una norma. Ad esempio, ecco l'equazione dei minimi quadrati min | | Ax-b | |22||Ax−b||22 ||Ax-b||^2_2 Penso di capire l'apice 2: significa quadrare il valore della norma. Ma qual …
Faccio fatica a capire la derivazione dell'errore di predizione previsto per sotto (ESL), in particolare sulla derivazione di 2.11 e 2.12 (condizionamento, il passo verso il minimo puntuale). Eventuali puntatori o link molto apprezzati. Di seguito sto riportando l'estratto di ESL pag. 18. Le prime due equazioni sono, in ordine, …
Sto pensando, implementando e usando il paradigma ELM (Extreme Learning Machine) da più di un anno ormai, e più a lungo lo faccio, più dubito che sia davvero una buona cosa. La mia opinione, tuttavia, sembra essere in contrasto con la comunità scientifica in cui - quando si usano citazioni …
La regolarizzazione nella regressione (lineare, logistica ...) è il modo più popolare per ridurre l'eccessivo adattamento. Quando l'obiettivo è l'accuratezza della previsione (non la spiegazione), ci sono buone alternative alla regolarizzazione, particolarmente adatte per grandi insiemi di dati (mi / miliardi di osservazioni e milioni di funzionalità)?
Sto cercando di adattare un modello usando i dati del vento (0, 359) e l'ora del giorno (0, 23), ma temo che si adatteranno male ad una regressione lineare perché non sono essi stessi parametri lineari. Vorrei trasformarli usando Python. Ho visto qualche menzione del calcolo di una media vettoriale …
Di seguito è riportato il diagramma di glmnet con alpha predefinito (1, quindi lazo) che utilizza il mtcarsset di dati in R con mpgcome DV e altri come variabili predittive. glmnet(as.matrix(mtcars[-1]), mtcars[,1]) Cosa possiamo concludere da questo diagramma riguardo alle diverse variabili, in particolare am, cyle wt(linee rosse, nere e …
Sto verificando un'implementazione della regressione logistica da qui . Dopo aver letto l'articolo, sembra che la parte importante sia trovare i migliori coefficienti per determinare la funzione sigmoide. Quindi mi chiedo solo perché questo metodo si chiama "Regressione logistica". È legato alla funzione logaritmica? Forse ho bisogno di alcune informazioni …
Ricordo di aver letto da qualche parte sul web una connessione tra regressione della cresta (con ℓ2ℓ2\ell_2 regolarizzazione) e regressione della PCA: durante l'utilizzo della regressione ℓ2ℓ2\ell_2 regolata con iperparametro λλ\lambda , se λ→0λ→0\lambda \to 0 , la regressione equivale alla rimozione della variabile PC con il più piccolo autovalore. …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.