Come si confrontano due processi gaussiani?


14

La divergenza di Kullback-Leibler è una metrica per confrontare due funzioni di densità di probabilità, ma quale metrica viene utilizzata per confrontare due GP di X e Y ?


d(X,Y)=E[supt|X(t)Y(t)|]
Zen

@Zen: se hai tempo, sono interessato a saperne di più su questa metrica di distanza.
Neil G

Ciao Neil. Non ne so molto. Per favore, vedi la mia risposta qui sotto.
Zen,

Risposte:


8

Si noti che la distribuzione dei processi gaussiani è l'estensione del gaussiano multivariato per X forse infinito . Pertanto, è possibile utilizzare la divergenza KL tra le distribuzioni di probabilità GP integrando su R X :XRXRX

DKL(P|Q)=RXlogdPdQdP.

You can use MC methods to approximate numerically this quantity over a discretized X by repeatedly sampling processes according to their GP distribution. I don't know if the convergence speed is sufficiently good...

Si noti che se è finito con | X | = n , quindi si ritorna alla solita divergenza KL per le distribuzioni normali multivariate: D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2 ) ) = 1X|X|=n

DKL(GP(μ1,K1),GP(μ2,K2))=12(tr(K21K1)+(μ2μ1)K21(μ2μ1)n+log|K2||K1|)

Come posso calcolare due medie (mu1 e mu2) che hai citato. O dovrei prenderli uguali a zero come al solito per il processo gaussiano?
Marat Zakirov,

4

Ricorda che se è un processo gaussiano con funzione media me funzione di covarianza K , quindi, per ogni t 1 , ... , t kT , il vettore casuale ( X ( t 1 ) , ... , X ( t k ) ) ha una distribuzione normale multivariata con vettore medio ( m ( t 1 ) , , mX:T×ΩRmKt1,,tkT(X(t1),,X(tk)) e matrice di covarianza Σ = ( σ i j ) = ( K ( t i , t j ) ) , dove abbiamo usato l'abbreviazione comune X ( t ) = X ( t(m(t1),,m(tk))Σ=(σij)=(K(ti,tj))X(t)=X(t,) .

Ogni realizzazione è una funzione reale il cui dominio è l'insieme degli indici T . Supponiamo che T = [ 0 , 1 ] . Dati due processi gaussiani X e Y , una distanza comune tra due realizzazioni XX(,ω)TT=[0,1]XY e YX(,ω) è sup t [ 0 , 1 ] | X ( t , ω ) - Y ( t , ω ) | . Quindi, sembra naturale definire la distanza tra i due processi X e Y come d ( X , Y ) = EY(,ω)supt[0,1]|X(t,ω)Y(t,ω)|XY Non so se esiste un'espressione analitica per questa distanza, ma credo che tu possa calcolare un'approssimazione di Monte Carlo come segue. Correggi qualche griglia fine 0 t 1 < < t k1 e disegna campioni ( x i 1 , , x i k ) e ( y i 1 , , y i k ) dai normali vettori casuali ( X ( t 1 ,

d(X,Y)=E[supt[0,1]|X(t)Y(t)|].()
0t1<<tk1(xi1,,xik)(yi1,,yik)(X(t1),,X(tk))(Y(t1),,Y(tk))i=1,,Nd(X,Y)
1Ni=1Nmax1jk|xijyij|.

How do you sample from each vector? If you only sample the means in each of the GPs you do not take into account the variances. Otherwise you will have to devise a sampling technique that is consistent.
pushkar

This is an excellent resource: gaussianprocess.org/gpml/chapters
Zen

You may also read all the answers to this question: stats.stackexchange.com/questions/30652/…
Zen

Pay attention that this is not a distance since d(X,X)0. As the KL compares two distributions and not two realisations, Zen's distance between two GPs should be defined as d(G1,G2)=EXG1,YG2[supt|X(t)Y(t)|], and we have that EXG,YGsupt|X(t)Y(t)|>0 for non degenerated Gaussian process G.
Emile

@Emile: how is it that d(X,X)0 using definition ()?
Zen
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.