Sto leggendo questo articolo prestampato e ho difficoltà a seguire la loro derivazione delle equazioni per la regressione del processo gaussiana. Usano l'impostazione e la notazione di Rasmussen & Williams . Pertanto, si presuppone un additivo, a media zero, stazionario e normalmente distribuito con varianza :
Un GP precedente con media zero è assunto per , il che significa che , è un vettore gaussiano con media 0 e matrice di covarianza
Da ora in poi, assumiamo che gli iperparametri siano noti. Quindi l'Eq. (4) del documento è ovvio:
Ecco i dubbi:
Equazione (5):
E [ y | f ] = f ≠ 0 f y = c + ϵ c ϵ , ma suppongo perché quando condiziono su , quindi dove è un vettore costante e solo è casuale. Corretta?
Ad ogni modo, è l'Eq. (6) che è più oscuro per me:
Questa non è la solita forma del teorema di Bayes. Il teorema di Bayes sarebbe
In qualche modo capisco perché le due equazioni sono uguali: intuitivamente, il vettore di risposta dipende solo dal corrispondente vettore latente , condizionando quindi su o su dovrebbe portare alla stessa distribuzione. Tuttavia, questa è un'intuizione, non una prova! Potete aiutarmi a dimostrare il perchéf f ( f , f ∗ )