Presumo una configurazione generale di regressione, ovvero una funzione continua hθ:X→Rnhθ:X→Rnh_\theta:X\to \mathbb R^n viene scelta da una famiglia {hθ}θ{hθ}θ\{h_\theta\}_\theta per adattarsi ai dati dati (xi,yi)∈X×Rn,i=1,…,k(xi,yi)∈X×Rn,i=1,…,k(x_i,y_i)\in X\times \mathbb R^n, i=1,\ldots, k ( XXX può essere qualsiasi spazio come cubo [0,1]m[0,1]m[0,1]^m in effetti qualsiasi spazio topologico ragionevole) secondo alcuni criteri naturali. Esistono …
Non si traduce in un eccesso di adattamento? I miei risultati sarebbero più affidabili se aggiungessi una procedura jack-knife o bootstrap come parte dell'analisi?
Voglio includere il termine xxx e il suo quadrato x2x2x^2 (variabili predittive) in una regressione perché presumo che valori bassi di xxx abbiano un effetto positivo sulla variabile dipendente e valori alti abbiano un effetto negativo. La x2x2x^2 dovrebbe catturare l'effetto dei valori più alti. Mi aspetto quindi che il …
Di recente ho ricevuto una revisione per il mio documento di ricerca e quanto segue è il commento del recensore sul mio documento: i risultati ottenuti da un modello non sono abbastanza convincenti, in particolare la regressione lineare di solito presenta carenze nella gestione dei valori anomali. Suggerisco anche agli …
EDIT: Da quando ho pubblicato questo post, ho seguito un post aggiuntivo qui . Sintesi del testo seguente: sto lavorando a un modello e ho provato la regressione lineare, le trasformazioni di Box Cox e GAM ma non ho fatto molti progressi Utilizzando R, sto attualmente lavorando su un modello …
Sto cercando di imparare un modello di regressione lineare. Tuttavia, ho qualche confusione legata alla normalizzazione dei dati. Ho normalizzato le caratteristiche / i predittori a zero varianza media e unità. Devo fare lo stesso per l'obiettivo. Se sì, perché?
Voglio selezionare i modelli usando regsubsets(). Ho un dataframe chiamato olympiadaten (dati caricati: http://www.sendspace.com/file/8e27d0 ). Per prima cosa allego questo frame di dati e poi inizio ad analizzare, il mio codice è: attach(olympiadaten) library(leaps) a<-regsubsets(Gesamt ~ CommunistSocialist + CountrySize + GNI + Lifeexp + Schoolyears + ExpMilitary + Mortality + …
Sto utilizzando PROC GLM in SAS per adattare un'equazione di regressione del seguente modulo Y= b0+ b1X1+ b2X2+ b3X3+ b4tY=b0+b1X1+b2X2+b3X3+b4t Y = b_0 + b_1X_1 + b_2X_2 + b_3X_3 + b_4t Il diagramma QQ dei risultati risultanti indica una deviazione dalla normalità. Qualsiasi trasformazione di non è utile per rendere …
Vorrei eseguire la regressione lineare su un set di dati multidimensionale. Esistono differenze tra le diverse dimensioni in termini di grandezza dell'ordine. Ad esempio, la dimensione 1 ha generalmente un intervallo di valori di [0, 1] e la dimensione 2 ha un intervallo di valori di [0, 1000]. Devo effettuare …
Ho intenzione di includere le coordinate come covariate nell'equazione di regressione al fine di adattarmi all'andamento spaziale che esiste nei dati. Successivamente, voglio testare i residui sull'autocorrelazione spaziale in variazioni casuali. Ho diverse domande: Dovrei eseguire una regressione lineare in cui solo le variabili indipendenti sono coordinate e e quindi …
Supponiamo che ci venga fornito un insieme di dati del modulo e . Ci viene assegnato il compito di prevedere base ai valori di . Stimiamo due regressioni in cui: ( y , x 1 , x 2 , ⋯ , x n - 1 ) y x y( y, …
Esistono algoritmi standard (anziché programmi) per eseguire la regressione lineare gerarchica? Le persone di solito fanno semplicemente MCMC o ci sono algoritmi più specializzati, forse parzialmente chiusi?
Ho un ampio set di dati costituito dai valori di diverse centinaia di variabili finanziarie che potrebbero essere utilizzate in una regressione multipla per prevedere il comportamento di un fondo indicizzato nel tempo. Vorrei ridurre il numero di variabili a dieci o giù di lì, pur mantenendo il maggior potere …
Sono un po 'confuso su quando dovresti o non dovresti aggiungere termini polinomiali a un modello di regressione lineare multipla. So che i polinomi sono usati per catturare la curvatura nei dati, ma sembra sempre avere la forma di: y=X1+X2+X21+X22+X1X2+ cy=x1+x2+x12+x22+x1x2+cy = x_1 + x_2 + x_1^2 + x_2^2 + …
Considera la regressione lineare multipla. Questa domanda potrebbe essere ingannevolmente semplice, ma sto cercando di capire intuitivamente perché, per esempio se ho predittori X1 e X2, allora le interazioni tra questi predittori possono essere adeguatamente catturate da X1 * X2. So che i termini di interazione sono modellati come prodotti, …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.