Dubbi sulla derivazione delle equazioni della regressione del processo gaussiana in un documento


9

Sto leggendo questo articolo prestampato e ho difficoltà a seguire la loro derivazione delle equazioni per la regressione del processo gaussiana. Usano l'impostazione e la notazione di Rasmussen & Williams . Pertanto, si presuppone un additivo, a media zero, stazionario e normalmente distribuito con varianza :σnoise2

y=f(x)+ϵ,ϵN(0,σnoise2)

Un GP precedente con media zero è assunto per f(x) , il che significa che  dN , f={f(x1),,f(xd)} è un vettore gaussiano con media 0 e matrice di covarianza

Σd=(k(x1,x1)k(x1,xd)k(xd,x1)k(xd,xd))

Da ora in poi, assumiamo che gli iperparametri siano noti. Quindi l'Eq. (4) del documento è ovvio:

p(f,f*)=N(0,(Kf,fKf*,fKf*,fKf*,f*))

Ecco i dubbi:

  1. Equazione (5):

    p(y|f)=N(f,σnoioSe2io)

    E [ y | f ] = f0 f y = c + ϵ c ϵE[f]=0 , ma suppongo perché quando condiziono su , quindi dove è un vettore costante e solo è casuale. Corretta?E[y|f]=f0fy=c+εcε

  2. Ad ogni modo, è l'Eq. (6) che è più oscuro per me:

    p(f,f*|y)=p(f,f*)p(y|f)p(y)

    Questa non è la solita forma del teorema di Bayes. Il teorema di Bayes sarebbe

    p(f,f*|y)=p(f,f*)p(y|f,f*)p(y)

    In qualche modo capisco perché le due equazioni sono uguali: intuitivamente, il vettore di risposta dipende solo dal corrispondente vettore latente , condizionando quindi su o su dovrebbe portare alla stessa distribuzione. Tuttavia, questa è un'intuizione, non una prova! Potete aiutarmi a dimostrare il perchéf f ( f , f )yff(f,f*)

    p(y|f,f*)=p(y|f)

Risposte:


1
  1. Se risolviamo , allora tutta l'incertezza in viene dal rumore. Quindi per l'equazione (5) nell'articolo abbiamo dato che dato abbiamo ad ogni punto rumore indipendente con varianza e media zero . Aggiungiamo la media iniziale e otteniamo la risposta.y f σ 2 n o i s e 0fyfσnoioSe20
  2. Un modo per dimostrare l'uguaglianza suggerita è trovare la distribuzione su il lato sinistro e il lato destro della qualità. Entrambi sono gaussiani, per il lato sinistro conosciamo già la risposta. Per il lato destro procediamo in modo simile. Troviamo la distribuzione condizionale per . Dal risultato della prima parte che conosciamo: Usando le regole di probabilità è facile integrare da( y , y ) p ( y , y| f , f ) = N ( ( f , f ) , σ 2 n o i s e I ) . y ( y , y
    p(y|f,f*)=p(y|f)
    (y,y*)
    p(y,y*|f,f*)=N((f,f*),σnoioSe2io).
    y*y y p ( y | f , f ) = N ( f , σ 2 n(y,y*), poiché la matrice di covarianza è diagonale e i vettori e sono indipendenti. In questo modo otteniamo: yy*
    p(y|f,f*)=N(f,σnoioSe2io)=p(y|f).
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.