Domande taggate «bias»

La differenza tra il valore atteso di uno stimatore di parametri e il valore reale del parametro. NON utilizzare questo tag per fare riferimento al [termine bias] / [nodo bias] (ovvero [intercetta]).

2
I presupposti dei minimi quadrati
Supponiamo la seguente relazione lineare: , dove è la variabile dipendente, una singola variabile indipendente e il termine di errore.Y i X i u iYio= β0+ β1Xio+ uioYi=β0+β1Xi+uiY_i = \beta_0 + \beta_1 X_i + u_iYioYiY_iXioXiX_iuiouiu_i Secondo Stock & Watson (Introduzione all'econometria; capitolo 4 ), il terzo presupposto dei minimi quadrati …

2
Gli stimatori degli alberi sono SEMPRE di parte?
Sto facendo i compiti sugli alberi decisionali e una delle domande a cui devo rispondere è "Perché gli stimatori sono costruiti su alberi distorti e in che modo l'insacco aiuta a ridurne la varianza?". Ora, so che i modelli troppo equipaggiati tendono ad avere una propensione molto bassa, perché cercano …
9 cart  bias 

3
Cos'è questo compromesso di bias varianza per i coefficienti di regressione e come derivarlo?
In questo documento , ( Bayesian Inference for Variance Components Using Only Error Contrasts , Harville, 1974), l'autore afferma per essere un "noto relazione ", per una regressione lineare dove \ epsilon \ sim \ mathcal {N} (0, H).(y−Xβ)′H−1(y−Xβ)=(y−Xβ^)′H−1(y−Xβ^)+(β−β^)′(X′H−1X)(β−β^)(y−Xβ)′H−1(y−Xβ)=(y−Xβ^)′H−1(y−Xβ^)+(β−β^)′(X′H−1X)(β−β^)(y-X\beta)'H^{-1}(y-X\beta)=(y-X\hat\beta)'H^{-1}(y-X\hat\beta)+(\beta-\hat\beta)'(X'H^{-1}X)(\beta-\hat\beta)y=Xβ+ϵ,y=Xβ+ϵ,y=X\beta+\epsilon,ϵ∼N(0,H).ϵ∼N(0,H).\epsilon\sim\mathcal{N}(0, H). Come è noto questo? Qual è il modo più semplice …

2
Orientamento all'ottimismo: stime dell'errore di previsione
Il libro Elements of Statistical Learning (disponibile in PDF online) discute il pregiudizio ottimisim (7.21, pagina 229). Indica che il pregiudizio all'ottimismo è la differenza tra l'errore dell'allenamento e l'errore nel campione (errore osservato se campioniamo nuovi valori di risultato in ciascuno dei punti di allenamento originali) (per sotto). Successivamente, …


2
perché l'imparzialità non implica coerenza
Sto leggendo il deep learning di Ian Goodfellow et al. Introduce la distorsione come dove e sono rispettivamente il parametro stimato e il parametro reale sottostante.Bias(θ)=E(θ^)−θBias(θ)=E(θ^)−θBias(\theta)=E(\hat\theta)-\thetaθ^θ^\hat\thetaθθ\theta La coerenza, d'altra parte, è definita da che significa che per qualsiasi , comel i mm → ∞θ^m= θlimm→∞θ^m=θ\mathrm{lim}_{m\to\infty}\hat\theta_m=\thetaϵ > 0ϵ>0\epsilon > 0P( |θ^m- …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.