Mappa delle funzionalità per il kernel gaussiano


24

In SVM, il kernel gaussiano è definito come: dove x, y \ in \ mathbb {R ^ n} . Non conosco l'equazione esplicita di \ phi . Voglio saperlo

K(x,y)=exp(xy222σ2)=ϕ(x)Tϕ(y)
x,yRnϕ

Voglio anche sapere se

iciϕ(xi)=ϕ(icixi)
dove ciR . Ora, penso che non sia uguale, perché l'uso di un kernel gestisce la situazione in cui il classier lineare non funziona. Conosco progetti ϕ x in uno spazio infinito. Quindi, se rimane ancora lineare, indipendentemente da quante dimensioni sia, svm non può ancora fare una buona classificazione.

perché questo kernel implica una trasformazione? O ti riferisci allo spazio delle funzioni associato?
Placidia,

Sì, qual è lo spazio delle funzionalità ϕ() modo che ϕT(x)ϕ(x)=exp(12σ2xx2)
user27886

Risposte:


20

È possibile ottenere l'equazione esplicita di ϕ per il kernel gaussiano tramite l'espansione della serie Tailor di ex . Per semplicità notazionale, supponiamo xR1 :

ϕ(x)=ex2/2σ2[1,11!σ2x,12!σ4x2,13!σ6x3,]T

Questo è anche discusso in maggior dettaglio in queste diapositive da Chih-Jen Lin di NTU (slide 11 in particolare). Si noti che nelle diapositive è usato come parametro del kernel.γ=12σ2

L'equazione nell'OP vale solo per il kernel lineare.


2
Ciao, ma questa equazione sopra soddisfa solo una dimensione.
Vivian,

Quindi, qui, lo spazio del kernel riproducente Hilbert è un sottospazio di , giusto? 2
The_Anomaly

Esiste anche una rappresentazione esplicita del kernel Laplaciano?
Felix Crazzolara,

13

Per ogni kernel psd valido , esiste una mappa delle caratteristiche tale che . Lo spazio e l'incorporamento in effetti non devono necessariamente essere unici, ma esiste un'importante coppia unica nota come kernel riproducente Hilbert space (RKHS).k:X×XRφ:XHk(x,y)=φ(x),φ(y)HHφ(H,φ)

L'RKHS è discusso da: Steinwart, Hush and Scovel, Una descrizione esplicita del kernel riproduttivo Spazi di Hilbert dei kernel gaussiani RBF , Transazioni sull'IEEE sulla teoria dell'informazione 2006 ( doi , pdf gratuito di citeseer ).

È un po 'complicato, ma si riduce a questo: definire come en:CC

en(z):=(2σ2)nn!zneσ2z2.

Sia una sequenza che vada su tutte le -tuple di numeri interi non negativi; se , forse , , e così via. Indica il th componente tupla di .n:N0N0ddd=3n(0)=(0,0,0)n(1)=(0,0,1)n(2)=(0,1,1)jinij

Quindi l' componente di è . Quindi mappa i vettori in con vettori complessi a dimensione infinita.iφ(x)j=1denij(xj)φRd

Il problema è che dobbiamo ulteriormente definire le norme per questi vettori complessi a dimensione infinita in modo speciale; vedere il documento per i dettagli.


Steinwart et al. anche dare un più semplice (al mio pensiero) incorporando in , lo spazio di Hilbert di funzioni quadrate integrabili da : Notare che è esso stesso una funzione di a . È fondamentalmente la densità di un gaussiano dimensionale con media e covarianza ; solo la costante normalizzante è diversa. Quindi quando prendiamo L2(Rd)RdR

Φσ(x)=(2σ)d2πd4e2σ2x22.
Φσ(x)RdRdx14σ2I
Φ(x),Φ(y)L2=[Φ(x)](t)[Φ(y)](t)dt,
stiamo prendendo il prodotto delle funzioni di densità gaussiana , che è esso stesso una certa costante volte che una densità gaussiana funzioni. Quando fai quell'integrale per , quindi, la costante che cade finisce per essere esattamente .tk(x,y)

Questi non sono gli unici matrimoni che funzionano.

Un altro si basa sulla trasformazione di Fourier, che il celebre documento di Rahimi e Recht ( Random Features for Large Scale Kernel Machines , NIPS 2007) si avvicina con grande efficacia.

Puoi anche farlo usando la serie Taylor: in effetti la versione infinita di Cotter, Keshet e Srebro, Approssimazioni esplicite del kernel gaussiano , arXiv: 1109.4603 .


1
Douglas Zare ha fornito una versione 1d del "più semplice" incorporando un thread interessante qui .
Dougal,

Qui trovi una spiegazione più 'intuitiva' che il può mappare su una valanga di dimensioni pari alla dimensione del campione di addestramento, anche per un campione di addestramento infinito: stats.stackexchange.com/questions/80398/…Φ

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.