Qual è la differenza tra autovettori a matrice di affinità e autovettori laplaciani grafici nel contesto del clustering spettrale?


8

Nel clustering spettrale, è pratica standard risolvere il problema degli autovettori

Lv=λv

dove è il grafico Laplaciano, è l'autovettore relativo a autovalore .Lvλ

La mia domanda: perché preoccuparsi di prendere il grafico Laplacian? Non potrei semplicemente risolvere il problema di autovettore per il grafico (matrice di affinità) stesso, come ha fatto il ragazzo in questo video ?

PS: ho fatto la stessa domanda in CrossValidated ma penso che questo sia un canale più appropriato. Perdonami se sbaglio.


Il collegamento al video è interrotto :(
wcochran

Risposte:


4

Il concetto è lo stesso ma ti stai confondendo per il tipo di dati. Clustering spettrale come Ng et al. Spiega si tratta di raggruppare i dati standard mentre la matrice laplaciana è una matrice derivata dal grafico utilizzata nella teoria dei grafi algebrici.

Quindi il punto è che ogni volta che codifichi la somiglianza dei tuoi oggetti in una matrice, questa matrice potrebbe essere utilizzata per il raggruppamento spettrale.

Se disponi di dati standard, ad esempio una matrice di caratteristiche di esempio, puoi trovare la prossimità o l'affinità o come vuoi chiamarla come matrice e applicare il clustering spettrale.

Se hai un grafico, questa affinità sarebbe qualcosa di simile alla matrice di adiacenza, alla matrice di distanza o alla matrice di Laplacialn e la risoluzione dell'autofunzione per tale matrice ti dà il risultato corrispondente.

Il punto sull'uso di Laplacian piuttosto che di adiacenza è mantenere la cosiddetta matrice di affinità semi-definita positiva (e la matrice laplaciana normalizzata è una scelta migliore in quanto fornisce autovalori normalizzati tra 0 e 2 e rivela la struttura del grafico molto meglio).

Quindi, per farla breve, è che fino a quando si dispone di una matrice contenente l'affinità dei propri dati è possibile utilizzare il clustering spettrale in generale. La differenza sta nei dettagli (ig la proprietà del Laplaciano normalizzato che ho appena menzionato)


Sì, penso di essere un po 'confuso. Non mi è ancora chiaro. Se ho dati standard (senza affinità), posso renderlo una matrice di affinità A prendendo la distanza a coppie tra i campioni di dati. Ora, se vedo A come un grafico, posso prendere il Laplaciano e risolvere gli autovettori e ottenere una soluzione; se non vedo A come un grafico, potrei semplicemente risolvere gli autovettori di matrice (PCA) e ottenere una soluzione. Qual è la differenza?
Felipeduque,

Ho letto di nuovo la tua domanda. La risposta sono le proprietà (ad esempio quella che ho menzionato nella mia risposta) La matrice laplaciana fornisce una migliore decomposizione. Tuttavia, puoi assolutamente l'unica autofunzione per qualsiasi matrice correlata alla somiglianza e ottenere alcuni risultati che sono diversi solo nei dettagli. Per esempio riguardo alla PCA che hai citato: la PCA prende la matrice di covarianza, quindi cattura dove la varianza è elevata ma in generale il concetto segue la stessa direzione delle altre tecniche di decomposizione spettrale. Ricontrollerò la mia risposta non appena vedrò alcune frasi di "Saturday Night";)
Kasra Manshaei il
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.