Se in una regressione lineare ho una variabile categoriale ... come faccio a sapere il significato stastico della variabile categoriale? Supponiamo che il fattore abbia 10 livelli ... ci saranno 10 diversi valori t risultanti, sotto l'ombrello di una variabile fattore ...X 1X1X1X_1X1X1X_1 Mi sembra che la significatività statistica sia …
Diamo qualche modello lineare, ad esempio ANOVA semplice: # data generation set.seed(1.234) Ng <- c(41, 37, 42) data <- rnorm(sum(Ng), mean = rep(c(-1, 0, 1), Ng), sd = 1) fact <- as.factor(rep(LETTERS[1:3], Ng)) m1 = lm(data ~ 0 + fact) summary(m1) Il risultato è il seguente: Call: lm(formula = data …
Sto soffrendo di un blackout. Mi è stata presentata la seguente immagine per mostrare il compromesso della variazione di bias nel contesto della regressione lineare: Vedo che nessuno dei due modelli è adatto: il "semplice" non sta apprezzando la complessità della relazione XY e il "complesso" si sta semplicemente adattando, …
Spero che qualcuno possa aiutarmi a risolvere un punto di confusione per me. Supponiamo di voler verificare se 2 serie di coefficienti di regressione sono significativamente diverse l'una dall'altra, con la seguente impostazione: yio=α+βxi+ϵiyi=α+βxi+ϵiy_i = \alpha + \beta x_i + \epsilon_i , con 5 variabili indipendenti. 2 gruppi, con dimensioni …
Ho incontrato alcuni statistici che non usano mai modelli diversi dalla regressione lineare per la previsione perché ritengono che "modelli ML" come la foresta casuale o il potenziamento del gradiente siano difficili da spiegare o "non interpretabili". In una regressione lineare, dato che l'insieme di ipotesi è verificato (normalità degli …
In uno scenario di regressione LASSO dove y=Xβ+ϵy=Xβ+ϵy= X \beta + \epsilon , e le stime LASSO sono date dal seguente problema di ottimizzazione minβ||y−Xβ||+τ||β||1minβ||y−Xβ||+τ||β||1 \min_\beta ||y - X \beta|| + \tau||\beta||_1 Ci sono ipotesi distributive riguardanti ?ϵϵ\epsilon In uno scenario OLS, ci si aspetterebbe che sia indipendente e normalmente …
Ho una variabile numerica che risulta non significativa in un modello di regressione logistica multivariata. Tuttavia, quando lo categorizzo in gruppi, improvvisamente diventa significativo. Questo è molto intuitivo per me: quando classifichiamo una variabile, forniamo alcune informazioni. Come può essere?
Ho addestrato un modello di regressione lineare, usando una serie di variabili / caratteristiche. E il modello ha una buona prestazione. Tuttavia, mi sono reso conto che non esiste una variabile con una buona correlazione con la variabile prevista. Come è possibile?
Ho visto questo elenco qui e non potevo credere che ci fossero così tanti modi per risolvere i minimi quadrati. I "equazioni normali" su Wikipedia sembrava essere un modo abbastanza α^β^=y¯−β^x¯,=∑ni=1(xi−x¯)(yi−y¯)∑ni=1(xi−x¯)2α^=y¯−β^x¯,β^=∑i=1n(xi−x¯)(yi−y¯)∑i=1n(xi−x¯)2 {\displaystyle {\begin{aligned}{\hat {\alpha }}&={\bar {y}}-{\hat {\beta }}\,{\bar {x}},\\{\hat {\beta }}&={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}}\end{aligned}}} Quindi perché non …
È noto che la regressione lineare con una penalità equivale a trovare la stima MAP data un precedente gaussiano sui coefficienti. Allo stesso modo, usare una penalità l 1 equivale a usare una distribuzione di Laplace come precedente.l2l2l^2l1l1l^1 Non è raro usare una combinazione ponderata di e l 2 regolarizzazione. …
La regressione beta (ovvero GLM con distribuzione beta e di solito la funzione di collegamento logit) è spesso consigliata per gestire la risposta nota come variabile dipendente che assume valori compresi tra 0 e 1, come frazioni, rapporti o probabilità: regressione per un risultato (rapporto o frazione) tra 0 e …
Qualcuno può spiegarmi la reale differenza (s) tra analisi di regressione e adattamento della curva (lineare e non lineare), con un esempio se possibile? Sembra che entrambi provino a trovare una relazione tra due variabili (dipendente vs indipendente) e quindi determinino il parametro (o coefficiente) associato ai modelli proposti. Ad …
Ho alcuni dati che ho inserito usando un modello LOESS in R, dandomi questo: I dati hanno un predittore e una risposta ed è eteroscedastico. Ho anche aggiunto intervalli di confidenza. Il problema è che gli intervalli sono intervalli di confidenza per la linea, mentre io sono interessato agli intervalli …
Ho un modello di set di dati di film e ho usato la regressione: model <- lm(imdbVotes ~ imdbRating + tomatoRating + tomatoUserReviews+ I(genre1 ** 3.0) +I(genre2 ** 2.0)+I(genre3 ** 1.0), data = movies) library(ggplot2) res <- qplot(fitted(model), resid(model)) res+geom_hline(yintercept=0) Che ha dato l'output: Ora ho provato a lavorare qualcosa …
Ho una domanda sull'omessa distorsione da variabile nella regressione logistica e lineare. Supponiamo di omettere alcune variabili da un modello di regressione lineare. Fai finta che quelle variabili omesse non siano correlate con le variabili che ho incluso nel mio modello. Quelle variabili omesse non influenzano i coefficienti nel mio …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.