Domande taggate «regression»

Tecniche per l'analisi della relazione tra una (o più) variabili "dipendenti" e variabili "indipendenti".

2
Gradi di libertà di nel test di Hosmer-Lemeshow
La statistica del test per il test di Hosmer-Lemeshow (HLT) per la bontà di adattamento (GOF) di un modello di regressione logistica è definita come segue: Il campione viene quindi suddiviso in decili, , per decile si calcolano le seguenti quantità:d=10d=10d=10D1,D2,…,DdD1,D2,…,DdD_1, D_2, \dots , D_{d} O1d=∑i∈DdyiO1d=∑i∈DdyiO_{1d}=\displaystyle \sum_{i \in D_d} y_i …


1
La regressione con la regolarizzazione L1 è la stessa di Lazo e con la regolarizzazione L2 è uguale alla regressione della cresta? E come scrivere "Lasso"?
Sono un ingegnere informatico che impara l'apprendimento automatico, in particolare attraverso i corsi di apprendimento automatico di Andrew Ng . Mentre studiavo la regressione lineare con la regolarizzazione , ho trovato termini che confondono: Regressione con regolarizzazione L1 o regolarizzazione L2 LASSO Regressione della cresta Quindi le mie domande: La …







1
Perché R restituirebbe NA come coefficiente lm ()?
Sto adattando un lm()modello a un set di dati che include indicatori per il trimestre finanziario (Q1, Q2, Q3, rendendo il Q4 predefinito). Usando lm(Y~., data = data) Ottengo a NAcome coefficiente per Q3 e un avvertimento che una variabile è stata esclusa a causa delle singolarità. Devo aggiungere una …
32 r  regression 

7
Esistono algoritmi per calcolare i parametri di regressione lineare o logistica "in esecuzione"?
Un documento "Calcolo accurato della varianza corrente" all'indirizzo http://www.johndcook.com/standard_deviation.html mostra come calcolare media corrente, varianza e deviazioni standard. Esistono algoritmi in cui i parametri di un modello di regressione lineare o logistica possono essere similmente aggiornati "dinamicamente" man mano che viene fornito ogni nuovo record di addestramento?

2
Funzione di costo nella regressione lineare OLS
Sono un po 'confuso con una lezione sulla regressione lineare tenuta da Andrew Ng su Coursera sull'apprendimento automatico. Lì, ha dato una funzione di costo che minimizza la somma dei quadrati come: 12m∑i=1m(hθ(X(i))−Y(i))212m∑i=1m(hθ(X(i))−Y(i))2 \frac{1}{2m} \sum _{i=1}^m \left(h_\theta(X^{(i)})-Y^{(i)}\right)^2 Capisco da dove viene il . Penso che l'abbia fatto in modo che …




Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.