Vantaggi dei processi gaussiani


13

Ho questa confusione legata ai benefici dei processi gaussiani. Intendo paragonarlo alla semplice regressione lineare, dove abbiamo definito che la funzione lineare modella i dati.

Tuttavia, nei processi gaussiani definiamo la distribuzione delle funzioni significa che non definiamo specificamente che la funzione dovrebbe essere lineare. Possiamo definire un priore sulla funzione che è il priore gaussiano che definisce caratteristiche come quanto deve essere liscia la funzione e tutto il resto.

Quindi non dobbiamo definire esplicitamente quale dovrebbe essere il modello. Tuttavia, ho delle domande. Abbiamo una probabilità marginale e usandola possiamo mettere a punto i parametri della funzione di covarianza del priore gaussiano. Quindi questo è simile alla definizione del tipo di funzione che dovrebbe essere non è vero.

Si riduce alla stessa cosa definendo i parametri anche se in GP sono iperparametri. Ad esempio in questo documento . Hanno definito che la funzione media del GP è qualcosa di simile

m(X)=un'X2+BX+ccioè un polinomio di secondo ordine.

Quindi sicuramente il modello / funzione è definito non è vero. Quindi qual è la differenza nel definire la funzione come lineare come in LR.

Semplicemente non ho avuto il vantaggio di usare GP

Risposte:


7

D=(X,y)={(Xio,yio)}io=1N

L=-12(log|K|+yTK-1y),
K={K(Xio,Xj)}io,j=1NK(Xio,Xj)X
y^(X)=KK-1y,
K={K(X,Xio)}io=1N

K(Xio,Xj)=XioTXj

y^(X)=XTXT(XXT)-1y=XT(XTX)-1XTy.
(XXT)-1

exp(-(Xio-Xj)TUN-1(Xio-Xj))UN

inserisci qui la descrizione dell'immagine.

Quindi, il vantaggio è che possiamo modellare le funzioni non lineari usando una funzione di covarianza adeguata (possiamo selezionarne una all'avanguardia, nella maggior parte dei casi la funzione di covarianza esponenziale quadrata è una scelta piuttosto buona). La fonte della non linearità non è la componente di tendenza menzionata, ma la funzione di covarianza.


3
Direi che questo è solo uno dei vantaggi di GP con è anche condiviso con altri metodi del kernel. Essere probabilistici e provenienti dal framework bayesiano è un altro vantaggio del GP.
Seeda,

2

Xff(X)

mun'XfXfμΣ (incertezza), consentendo ad esempio l'ottimizzazione delle costose funzioni della scatola nera.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.