La divergenza di Kullback-Leibler è una metrica per confrontare due funzioni di densità di probabilità, ma quale metrica viene utilizzata per confrontare due GP di e ?
La divergenza di Kullback-Leibler è una metrica per confrontare due funzioni di densità di probabilità, ma quale metrica viene utilizzata per confrontare due GP di e ?
Risposte:
Si noti che la distribuzione dei processi gaussiani è l'estensione del gaussiano multivariato per X forse infinito . Pertanto, è possibile utilizzare la divergenza KL tra le distribuzioni di probabilità GP integrando su R X :
You can use MC methods to approximate numerically this quantity over a discretized by repeatedly sampling processes according to their GP distribution. I don't know if the convergence speed is sufficiently good...
Si noti che se è finito con | X | = n , quindi si ritorna alla solita divergenza KL per le distribuzioni normali multivariate: D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2 ) ) = 1
Ricorda che se è un processo gaussiano con funzione media me funzione di covarianza K , quindi, per ogni t 1 , ... , t k ∈ T , il vettore casuale ( X ( t 1 ) , ... , X ( t k ) ) ha una distribuzione normale multivariata con vettore medio ( m ( t 1 ) , … , m e matrice di covarianza Σ = ( σ i j ) = ( K ( t i , t j ) ) , dove abbiamo usato l'abbreviazione comune X ( t ) = X ( t .
Ogni realizzazione è una funzione reale il cui dominio è l'insieme degli indici T . Supponiamo che T = [ 0 , 1 ] . Dati due processi gaussiani X e Y , una distanza comune tra due realizzazioni X e Y è sup t ∈ [ 0 , 1 ] | X ( t , ω ) - Y ( t , ω ) | . Quindi, sembra naturale definire la distanza tra i due processi X e Y come d ( X , Y ) = E Non so se esiste un'espressione analitica per questa distanza, ma credo che tu possa calcolare un'approssimazione di Monte Carlo come segue. Correggi qualche griglia fine 0 ≤ t 1 < ⋯ < t k ≤ 1 e disegna campioni ( x i 1 , … , x i k ) e ( y i 1 , … , y i k ) dai normali vettori casuali ( X ( t 1 ,