Nella regressione lineare multipla, posso capire che le correlazioni tra residuo e predittori sono zero, ma qual è la correlazione attesa tra residuo e variabile criterio? Dovrebbe essere zero o fortemente correlato? Qual'è il significato di questo?
Sono interessato alla regressione con le reti neurali. Le reti neurali con zero nodi nascosti + connessioni skip-layer sono modelli lineari. Che dire delle stesse reti neurali ma con nodi nascosti? Mi chiedo quale sarebbe il ruolo delle connessioni skip-layer? Intuitivamente, direi che se includi le connessioni skip-layer, il modello …
Mi chiedo se c'è qualche algoritmo in grado di fare classificazione e regressione allo stesso tempo. Ad esempio, vorrei lasciare che l'algoritmo impari un classificatore e, allo stesso tempo, all'interno di ciascuna etichetta, impari anche un obiettivo continuo. Pertanto, per ogni esempio di formazione, ha un'etichetta categorica e un valore …
Supponiamo che io sono in esecuzione una regressione Y∼XY∼XY \sim X . Perché selezionando i componenti principali di di , il modello mantiene il suo potere predittivo su ?kkkXXXYYY Capisco che dal punto di vista della riduzione di dimensionalità / selezione delle caratteristiche, se sono gli autovettori della matrice di …
Ho diverse domande riguardanti la penalità della cresta nel contesto dei minimi quadrati: βridge=(λID+X′X)−1X′yβridge=(λID+X′X)−1X′y\beta_{ridge} = (\lambda I_D + X'X)^{-1}X'y 1) L'espressione suggerisce che la matrice di covarianza di X è ridotta verso una matrice diagonale, il che significa che (supponendo che le variabili siano standardizzate prima della procedura) verrà ridotta …
In un semplice modello di regressione, y=β0+β1x+ε,y=β0+β1x+ε, y = \beta_0 + \beta_1 x + \varepsilon, gli stimatori OLS betaβ^OLS0β^0OLS\hat{\beta}_0^{OLS} e sono correlate.β^OLS1β^1OLS\hat{\beta}_1^{OLS} La formula per la correlazione tra i due stimatori è (se l'ho derivata correttamente): Corr(β^OLS0,β^OLS1)=−∑ni=1xin−−√∑ni=1x2i−−−−−−−√.Corr(β^0OLS,β^1OLS)=−∑i=1nxin∑i=1nxi2. \operatorname{Corr}(\hat{\beta}_0^{OLS},\hat{\beta}_1^{OLS}) = \frac{-\sum_{i=1}^{n}x_i}{\sqrt{n} \sqrt{\sum_{i=1}^{n}x_i^2} }. Domande: Qual è la spiegazione intuitiva della presenza …
La mia variabile dipendente mostrata di seguito non si adatta a nessuna distribuzione di titoli che io conosca. La regressione lineare produce residui in qualche modo non normali, inclinati a destra che si riferiscono alla Y prevista in modo strano (2 ° diagramma). Qualche suggerimento per trasformazioni o altri modi …
Seguendo la mia domanda per OLS , mi chiedo: quali grafici diagnostici esiste per la regressione quantile? (e ci sono R implementazione di loro?) Una rapida ricerca su Google ha già prodotto la trama del worm (di cui non ho mai sentito parlare prima) e sarei felice di sapere di …
Vorrei capire meglio i pro / contro per l'utilizzo di spessori di loess o smoothing per smussare una curva. Un'altra variante della mia domanda è se esiste un modo per costruire una spline di livellamento in modo da ottenere gli stessi risultati dell'uso del loess. Qualsiasi riferimento o approfondimento sono …
Di recente ho iniziato a studiare l'apprendimento automatico, ma non sono riuscito a cogliere l'intuizione alla base della regressione logistica . Di seguito sono riportati i fatti sulla regressione logistica che capisco. Come base per l'ipotesi usiamo la funzione sigmoide . Capisco perché è una scelta corretta, tuttavia perché è …
In una regressione, il termine di interazione cancella entrambi gli effetti diretti correlati. Eliminare l'interazione o segnalare l'esito? L'interazione non faceva parte dell'ipotesi originale.
Sono un po 'confuso se una variabile indipendente (chiamata anche predittore o caratteristica) in un modello statistico, ad esempio la nella regressione lineare , è una variabile casuale?XXXY=β0+β1XY=β0+β1XY=\beta_0+\beta_1 X
Tutti gli esempi di SVM sono legati alla classificazione. Non capisco come un SVM per la regressione (regressore vettoriale di supporto) possa essere usato nella regressione. Da quanto ho capito, un SVM massimizza il margine tra due classi per trovare l'iperpiano ottimale. Come potrebbe funzionare in un problema di regressione?
L'apprendimento automatico (ML) utilizza fortemente le tecniche di regressione lineare e logistica. Essa si basa anche su tecniche di ingegneria funzione ( feature transform, kernel, ecc). Perché non si parla di variable transformation(ad esempio power transformation) in ML? (Ad esempio, non ho mai sentito parlare di root o log su …
Attualmente sto usando AnomalyDetection di Twitter in R: https://github.com/twitter/AnomalyDetection . Questo algoritmo fornisce il rilevamento delle anomalie delle serie temporali per i dati con stagionalità. Domanda: ci sono altri algoritmi simili a questo (il controllo della stagionalità non ha importanza)? Sto cercando di assegnare il maggior numero possibile di algoritmi …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.