Domande taggate «bias»

La differenza tra il valore atteso di uno stimatore di parametri e il valore reale del parametro. NON utilizzare questo tag per fare riferimento al [termine bias] / [nodo bias] (ovvero [intercetta]).






2
Perché un albero insaccato / albero forestale casuale ha una propensione maggiore di un singolo albero decisionale?
Se consideriamo un albero decisionale completamente sviluppato (ovvero un albero decisionale non potato) ha una varianza elevata e una propensione bassa. Le foreste insaccanti e casuali utilizzano questi modelli ad alta varianza e li aggregano al fine di ridurre la varianza e quindi migliorare l'accuratezza delle previsioni. Entrambe le foreste …

2
Pro e contro del bootstrap
Ho appena appreso il concetto di bootstrap e mi è venuta in mente una domanda ingenua: se possiamo sempre generare numerosi campioni bootstrap dei nostri dati, perché preoccuparsi di ottenere più dati "reali"? Penso di avere una spiegazione, per favore dimmi se sono corretto: penso che il processo di bootstrap …





1
Bootstrap: la stima non rientra nell'intervallo di confidenza
Ho fatto un bootstrap con un modello misto (diverse variabili con interazione e una variabile casuale). Ho ottenuto questo risultato (solo parziale): > boot_out ORDINARY NONPARAMETRIC BOOTSTRAP Call: boot(data = a001a1, statistic = bootReg, R = 1000) Bootstrap Statistics : original bias std. error t1* 4.887383e+01 -1.677061e+00 4.362948e-01 t2* 3.066825e+01 …

1
In che modo uno stimatore che minimizza una somma ponderata di distorsioni quadrate e varianza si adatta alla teoria delle decisioni?
Okay - il mio messaggio originale non è riuscito a ottenere una risposta; quindi, lasciami porre la domanda in modo diverso. Inizierò spiegando la mia comprensione della stima da una prospettiva teorica decisionale. Non ho una formazione formale e non mi sorprenderebbe se il mio pensiero fosse in qualche modo …


2
Decomposizione della varianza: termine per errore di previsione al quadrato atteso meno errore irriducibile
Hastie et al. "The Elements of Statistical Learning" (2009) considera un processo di generazione di dati con e .E ( ε ) = 0 Var ( ε ) = σ 2 εY=f(X)+εY=f(X)+ε Y = f(X) + \varepsilon E(ε)=0E(ε)=0\mathbb{E}(\varepsilon)=0Var(ε)=σ2εVar(ε)=σε2\text{Var}(\varepsilon)=\sigma^2_{\varepsilon} Presentano la seguente decomposizione della variazione di polarizzazione dell'errore di previsione al …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.