Ho esaminato la documentazione di sklearn ma non sono in grado di comprendere lo scopo di queste funzioni nel contesto della regressione logistica. Perché decision_functiondice che è la distanza tra l'iperpiano e l'istanza di test. come sono utili queste informazioni particolari? e in che modo ciò si collega predicte predict-probametodi?
Il mio set di dati ( ) ha una variabile dipendente (DV), cinque variabili "baseline" indipendenti (P1, P2, P3, P4, P5) e una variabile di interesse indipendente (Q).N≈ 10 , 000N≈10,000N \approx 10,000 Ho eseguito regressioni lineari OLS per i seguenti due modelli: DV ~ 1 + P1 + P2 …
Immagina di avere un modello di regressione lineare con variabile dipendente . Troviamo il suo . Ora facciamo un'altra regressione, ma questa volta su , e allo stesso modo troviamo la sua . Mi è stato detto che non posso confrontare entrambi per vedere quale modello è più adatto. Perché? …
So che probabilmente è stato discusso da qualche altra parte, ma non sono stato in grado di trovare una risposta esplicita. Sto cercando di utilizzare la formula per calcolare fuori campione di un modello di regressione lineare, in cui è la somma dei residui quadrati e è la somma totale …
"Residui studentizzati" e "Residui standardizzati" sono gli stessi nei modelli di regressione? Ho costruito un modello di regressione lineare in R e volevo tracciare il grafico dei valori adattati dei residui Studentized v / s, ma non ho trovato un modo automatizzato per farlo in R. Supponiamo che io abbia …
Come eseguire la regressione della cresta non negativa? Il lazo non negativo è disponibile in scikit-learn, ma per la cresta, non posso applicare la non negatività dei beta e, in effetti, sto ottenendo coefficienti negativi. qualcuno sà perche è cosi? Inoltre, posso implementare la cresta in termini di minimi quadrati …
Capisco che possiamo impiegare la regolarizzazione in un problema di regressione dei minimi quadrati come w∗=argminw[(y−Xw)T(y−Xw)+λ∥w∥2]w∗=argminw[(y−Xw)T(y−Xw)+λ‖w‖2]\boldsymbol{w}^* = \operatorname*{argmin}_w \left[ (\mathbf y-\mathbf{Xw})^T(\boldsymbol{y}-\mathbf{Xw}) + \lambda\|\boldsymbol{w}\|^2 \right] e che questo problema ha una soluzione a forma chiusa come: w^=(XTX+λI)−1XTy.w^=(XTX+λI)−1XTy.\hat{\boldsymbol{w}} = (\boldsymbol{X}^T\boldsymbol{X}+\lambda\boldsymbol{I})^{-1}\boldsymbol{X}^T\boldsymbol{y}. Vediamo che nella seconda equazione, la regolarizzazione sta semplicemente aggiungendo λλ\lambda alla …
Cosa ne pensi dell'utilizzo della regressione per proiettare al di fuori dell'intervallo di dati? Se siamo sicuri che segue una forma del modello lineare o di potenza, il modello non potrebbe essere utile oltre l'intervallo di dati? Ad esempio, ho un volume guidato dal prezzo. Credo che dovremmo essere in …
Ho inviato un articolo che è stato respinto a causa del modo improprio di eseguire l'analisi di sopravvivenza. L'arbitro non ha lasciato altri dettagli o spiegazioni oltre a: "l'analisi della sopravvivenza sulle tendenze temporali richiede modi più sofisticati di censura". La domanda: L'eccesso di rischio di morte tra i fumatori …
La funzione R cv.glm (libreria: avvio) calcola l'errore di stima della convalida incrociata K stimato per i modelli lineari generalizzati e restituisce delta. Ha senso usare questa funzione per una regressione del lazo (libreria: glmnet) e, in tal caso, come può essere eseguita? La libreria glmnet usa una validazione incrociata …
Una domanda basilare riguardante la delle regressioni OLSR2R2R^2 eseguiamo la regressione OLS y ~ x1, abbiamo un , diciamo 0.3R2R2R^2 eseguiamo la regressione OLS y ~ x2, abbiamo un'altra , diciamo 0.4R2R2R^2 ora eseguiamo una regressione y ~ x1 + x2, quale valore può essere R al quadrato di questa …
Sono confuso su come valutare la distribuzione predittiva posteriore per la regressione lineare bayesiana, oltre il caso di base descritto qui a pagina 3 e copiato di seguito. p ( y~∣ y) = ∫p ( y~∣ β, σ2) p ( β, σ2∣ y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde …
Nella regressione lineare mi sono imbattuto in un risultato delizioso che se si adatta al modello E[Y]=β1X1+β2X2+c,E[Y]=β1X1+β2X2+c,E[Y] = \beta_1 X_1 + \beta_2 X_2 + c, quindi, se standardizziamo e centriamo i dati YYY , X1X1X_1 e X2X2X_2 , R2= C o r ( Y, X1) β1+ Co r ( Y, …
Qual è l'importanza della matrice del cappello, , nell'analisi di regressione?H= X( X'X)- 1X'H=X(X′X)−1X′H=X(X^{\prime}X )^{-1}X^{\prime} È solo per un calcolo più semplice?
Ho un campione di 1.449 punti dati non correlati (r-quadrato 0,006). Analizzando i dati, ho scoperto che, dividendo i valori delle variabili indipendenti in gruppi positivi e negativi, sembra esserci una differenza significativa nella media della variabile dipendente per ciascun gruppo. Dividendo i punti in 10 bin (decili) usando i …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.