Regressione quantile: funzione di perdita


24

Sto cercando di capire la regressione quantile, ma una cosa che mi fa soffrire è la scelta della funzione di perdita.

ρτ(u)=u(τ1{u<0})

So che il minimo dell'aspettativa di ρτ(yu) è uguale a τ% -quantile, ma qual è la ragione intuitiva per iniziare con questa funzione? Non vedo la relazione tra minimizzare questa funzione e il quantile. Qualcuno può spiegarmelo?

Risposte:


28

Capisco questa domanda come chiedere approfondimenti su come si potrebbe inventare qualsiasi funzione di perdita che produce un dato quantile come minimizzatore di perdita, indipendentemente dalla distribuzione sottostante. Sarebbe insoddisfacente, quindi, solo ripetere l'analisi su Wikipedia o altrove che mostra che questa particolare funzione di perdita funziona.

Cominciamo con qualcosa di familiare e semplice.

Che cosa si sta parlando è trovare un "luogo" rispetto a una distribuzione o insieme di dati F . È noto, ad esempio, che la media ˉ x minimizza il residuo quadrato previsto; cioè, è un valore per il qualexFx¯

LF(x¯)=R(xx¯)2dF(x)

è il più piccolo possibile. Ho usato questa notazione per ricordarci che è derivato da una perdita , che è determinato da F , ma soprattutto dipende dal numero ˉ x .LFx¯

Il modo standard per mostrare che minimizza qualsiasi funzione inizia dimostrando che il valore della funzione non diminuisce quando x viene modificato di un po '. Tale valore è chiamato punto critico della funzione.xx

Quale tipo di funzione di perdita comporterebbe un percentile F - 1 ( α ) un punto critico? La perdita per quel valore sarebbeΛF1(α)

LF(F1(α))=RΛ(xF1(α))dF(x)=01Λ(F1(u)F1(α))du.

Perché questo sia un punto critico, la sua derivata deve essere zero. Dal momento che stiamo solo cercando di trovare una soluzione, non ci fermeremo per vedere se le manipolazioni sono legittime: pianificheremo di controllare i dettagli tecnici (come se davvero possiamo differenziare , ecc. ) Alla fine. cosìΛ

(1)0=LF(x)=LF(F1(α))=01Λ(F1(u)F1(α))du=0αΛ(F1(u)F1(α))duα1Λ(F1(u)F1(α))du.

Sul lato sinistro, l'argomento di è negativo, mentre sul lato destro è positivo. Oltre a ciò, abbiamo poco controllo sui valori di questi integrali perché F potrebbe essere qualsiasi funzione di distribuzione. Di conseguenza la nostra unica speranza è far dipendere Λ solo dal segno della sua argomentazione, e altrimenti deve essere costante.ΛFΛ

Ciò implica che sarà lineare a tratti, potenzialmente con diverse pendenze a sinistra e a destra di zero. Chiaramente dovrebbe diminuire quando si avvicina lo zero: dopo tutto, si tratta di una perdita e non di un guadagno . Inoltre, riscalare Λ di una costante non cambierà le sue proprietà, quindi potremmo sentirci liberi di impostare la pendenza della mano sinistra su - 1 . Sia τ > 0 la pendenza a destra. Quindi ( 1 ) semplificaΛΛ1τ>0(1)

0=ατ(1α),

da cui la soluzione unica è, fino a un multiplo positivo,

Λ(x)={x, x0α1αx, x0.

1α

Λ


19

The way this loss function is expressed is nice and compact but I think it's easier to understand by rewriting it as

ρτ(Xm)=(Xm)(τ1(Xm<0))={τ|Xm|ifXm0(1τ)|Xm|ifXm<0)

If you want to get an intuitive sense of why minimizing this loss function yields the τth quantile, it's helpful to consider a simple example. Let X be a uniform random variable between 0 and 1. Let's also choose a concrete value for τ, say, 0.25.

So now the question is why would this loss function be minimized at m=0.25? Obviously, there's three times as much mass in the uniform distribution to the right of m than there is to the left. And the loss function weights the values larger than this number at only a third of the weight given to values less than it. Thus, it's sort of intuitive that the scales are balanced when the τth quantile is used as the inflection point for the loss function.


1
Shouldn't it be the other way? Under-guessing will cost three times as much?
Edi Bice

Thanks for catching that. The formula is right but I initially worded it incorrectly in my explanation.
jjet
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.