La funzione lm in R può stampare la covarianza stimata dei coefficienti di regressione. Cosa ci danno queste informazioni? Ora possiamo interpretare meglio il modello o diagnosticare i problemi che potrebbero essere presenti nel modello?
Ho un dato di vendita giornaliero per un prodotto che è altamente stagionale. Voglio catturare la stagionalità nel modello di regressione. Ho letto che se disponi di dati trimestrali o mensili, in quel caso puoi creare rispettivamente 3 e 11 variabili fittizie - ma posso gestire i dati giornalieri? Ho …
Vorrei confrontare i modelli selezionati con la cresta, il lazo e la rete elastica. La Fig. Sotto mostra i percorsi dei coefficienti usando tutti e 3 i metodi: cresta (Fig A, alfa = 0), lazo (Fig B; alfa = 1) e rete elastica (Fig C; alfa = 0,5). La soluzione …
I gradi di libertà in una regressione multipla equivalgono a , dove k è il numero di variabili.N- k - 1N−k−1N-k-1Kkk Fa includono la variabile di risposta (cioè, Y )? Ad esempio, nel modello Y = B 0 + B 1 X 1 + B 2 X 2 , quindi …
Scusate se questa è una domanda newb; Sto cercando di insegnarmi le statistiche per la prima volta. Penso di avere la procedura di base giù, ma sto lottando per eseguirla con R. Quindi, sto cercando di valutare il significato dei coefficienti di regressione in una regressione lineare multipla della forma …
Immagina che un ricercatore stia esplorando un set di dati ed esegua 1000 diverse regressioni e trova una relazione interessante tra loro. Ora immagina che un altro ricercatore con gli stessi dati esegua solo 1 regressione e si scopre che è lo stesso che l'altro ricercatore ha impiegato 1000 regressioni …
I polinomi ortogonali in un insieme univariato di punti sono polinomi che producono valori su quei punti in modo tale che il suo prodotto punto e la correlazione a coppie siano zero. R può produrre polinomi ortogonali con funzione poli . La stessa funzione ha un polimero variante che produce …
Ho visto le formule su Wikipedia. che riguardano la distanza e la leva di Mahalanobis: La distanza di Mahalanobis è strettamente correlata alla statistica della leva finanziaria, hhh , ma ha una scala diversa: D2=(N−1)(h−1N).D2=(N−1)(h−1N).D^2 = (N - 1)(h - \tfrac{1}{N}). In un articolo collegato , Wikipedia descrive hhh in …
Ho un ampio set di dati di mercato aggregati sulle vendite di vino negli Stati Uniti e vorrei stimare la domanda di determinati vini di alta qualità. Queste quote di mercato sono state fondamentalmente derivate da un modello di utilità casuale nella forma dove include caratteristiche del prodotto rilevate, indica …
Quando si utilizzano spline cubiche naturali (cioè limitate), le funzioni di base create sono altamente collineari e quando utilizzate in una regressione sembrano produrre statistiche VIF (fattore di inflazione della varianza) molto elevate, segnalando multicollinearità. Quando si considera il caso di un modello ai fini della previsione, si tratta di …
È possibile ottenere una correlazione positiva tra un regressore e una risposta ( +0,43) e, successivamente, ottenere un coefficiente negativo nel modello di regressione adattato per questo regressore? Non sto parlando di cambiamenti nel segno del regressore tra alcuni modelli. Il segno del coefficiente rimane sempre. Le restanti variabili del …
Nota: questa domanda è una risposta, poiché la mia domanda precedente doveva essere cancellata per motivi legali. Confrontando PROC MIXED da SAS con la funzione lmedel nlmepacchetto in R, mi sono imbattuto in alcune differenze piuttosto confuse. Più specificamente, i gradi di libertà nei diversi test differiscono tra PROC MIXEDe …
Attualmente sto lavorando alla costruzione di un modello predittivo per un risultato binario su un set di dati con ~ 300 variabili e 800 osservazioni. Ho letto molto su questo sito sui problemi associati alla regressione graduale e sul perché non usarlo. Ho letto la regressione di LASSO e la …
Di seguito è riportato un modello creato dal mtcarsset di dati: > ols(mpg~wt+am+qsec, mtcars) Linear Regression Model ols(formula = mpg ~ wt + am + qsec, data = mtcars) Model Likelihood Discrimination Ratio Test Indexes Obs 32 LR chi2 60.64 R2 0.850 sigma 2.4588 d.f. 3 R2 adj 0.834 d.f. …
Esempi di questa pagina mostrano che la semplice regressione è notevolmente influenzata dai valori erratici e questo può essere superato con tecniche di regressione robusta: http://www.alastairsanderson.com/R/tutorials/robust-regression-in-R/ . Credo che lmrob e ltsReg siano altre solide tecniche di regressione. Perché non si dovrebbe fare una regressione solida (come rlm o rq) …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.