Questo link di Wikipedia elenca una serie di tecniche per rilevare l'eteroscedasticità dei residui di OLS. Vorrei imparare quale tecnica pratica è più efficace nel rilevare le regioni colpite dall'eteroscedasticità. Ad esempio, qui la regione centrale della trama OLS "Residuals vs Fitted" sembra avere una varianza maggiore rispetto ai lati …
Questo è qualcosa che vedo fatto come una specie di metodo ad hoc e mi sembra molto sospetto, ma forse mi manca qualcosa. Ho visto questo fatto in regressione multipla ma manteniamolo semplice: yi=β0+β1xi+εiyi=β0+β1xi+εi y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i} Ora prendi i residui dal modello montato ei=yi−(β^0+β^1xi)ei=yi−(β^0+β^1xi) …
In generale, standardizzo le mie variabili indipendenti nelle regressioni, al fine di confrontare correttamente i coefficienti (in questo modo hanno le stesse unità: deviazioni standard). Tuttavia, con i dati panel / longitudinali, non sono sicuro di come standardizzare i miei dati, soprattutto se valuto un modello gerarchico. Per capire perché …
Poiché la modellazione della regressione è spesso più "arte" della scienza, mi trovo spesso a provare molte iterazioni di una struttura di regressione. Quali sono alcuni modi efficienti per riassumere le informazioni di queste esecuzioni di più modelli nel tentativo di trovare il modello "migliore"? Un approccio che ho usato …
Come dovrei definire una formula modello in R, quando sono disponibili una (o più) restrizioni lineari esatte che legano i coefficienti. Ad esempio, supponiamo che tu sappia che b1 = 2 * b0 in un modello di regressione lineare semplice. Grazie!
Nella regressione logistica, c'è bisogno di preoccuparsi tanto della multicollinearità quanto della regressione OLS diretta? Ad esempio, con una regressione logistica, laddove esiste la multicollinearità, dovresti essere prudente (come faresti con la regressione OLS) nel prendere l'inferenza dai coefficienti Beta? Per la regressione OLS una "correzione" per l'alta multicollinearità è …
Sto cercando di approfondire la ricerca nell'area della regressione ad alta dimensione; quando ppp è maggiore di nnn , cioè, p>>np>>np >> n . Sembra che il termine logp/nlogp/n\log p/n appaia spesso in termini di tasso di convergenza per gli stimatori della regressione. β^β^\hat{\beta}1n∥Xβ^−Xβ∥22=OP(σlogpn−−−−−√∥β∥1).1n‖Xβ^-Xβ‖22=OP(σlogpn‖β‖1). \dfrac{1}{n}\|X\hat{\beta} - X \beta\|_2^2 = O_P …
In pratica, l'uso di un test T standard per verificare il significato di un coefficiente di regressione lineare è pratica comune. La meccanica del calcolo ha senso per me. Perché la distribuzione a T può essere utilizzata per modellare la statistica test standard utilizzata nel test di ipotesi di regressione …
La mia domanda è: qual è la relazione matematica tra la distribuzione Beta e i coefficienti del modello di regressione logistica ? Per illustrare: la funzione logistica (sigmoid) è data da f(x)=11+exp(−x)f(x)=11+exp(−x)f(x) = \frac{1}{1+\exp(-x)} ed è usato per modellare le probabilità nel modello di regressione logistica. Sia AAA un esito …
La regressione di rango ridotto e la regressione della componente principale sono solo casi speciali di minimi quadrati parziali? Questo tutorial (Pagina 6, "Confronto di obiettivi") afferma che quando eseguiamo i minimi quadrati parziali senza proiettare X o Y (cioè "non parziale"), diventa di conseguenza una regressione di rango ridotta …
C'è qualche spiegazione intuitiva per questa terminologia? Perché è così, e non il / i predittore / i essere regredito sul risultato? Idealmente, spero che una spiegazione corretta del perché esista questa terminologia aiuterà gli studenti a ricordarlo e impedirà loro di dirlo nel modo sbagliato.
Ho trovato alcuni professionisti dell'analisi discriminante e ho delle domande a riguardo. Così: Quando le classi sono ben separate, le stime dei parametri per la regressione logistica sono sorprendentemente instabili. I coefficienti possono andare all'infinito. LDA non soffre di questo problema. Se il numero di funzioni è piccolo e la …
Se iniziamo con un set di dati , applichiamo Lasso ad esso e otteniamo una soluzione β L , possiamo applicare nuovamente Lasso al set di dati ( X S , Y ) , dove S è l'insieme diverso da zero indici di β L , per ottenere una soluzione, …
Come spiegato in questo volantino del corso (pagina 1) , un modello lineare può essere scritto nel modulo: y=β1x1+⋯+βpxp+εi,y=β1x1+⋯+βpxp+εi, y = \beta_1 x_{1} + \cdots + \beta_p x_{p} + \varepsilon_i, dove yyy è la variabile di risposta e xixix_{i} è l' ithithi^{th} variabile esplicativa . Spesso con l'obiettivo di soddisfare …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.