Spiegare i passaggi dell'algoritmo LLE (local linear embedding)?


13

Comprendo che il principio di base dietro l'algoritmo per LLE consiste in tre passaggi.

  1. Individuazione del vicinato di ciascun punto dati mediante una metrica come k-nn.
  2. Trova pesi per ciascun vicino che denotano l'effetto che il vicino ha sul punto dati.
  3. Costruire l'incorporamento a bassa dimensione dei dati in base ai pesi calcolati.

Ma la spiegazione matematica dei passaggi 2 e 3 è confusa in tutti i libri di testo e le risorse online che ho letto. Non sono in grado di ragionare sul perché vengano utilizzate le formule.

Come vengono eseguiti in pratica questi passaggi? Esiste un modo intuitivo per spiegare le formule matematiche utilizzate?

Riferimenti: http://www.cs.nyu.edu/~roweis/lle/publications.html

Risposte:


10

L'incorporamento lineare locale (LLE) elimina la necessità di stimare la distanza tra oggetti distanti e recupera la struttura non lineare globale mediante adattamenti lineari locali. LLE è vantaggioso perché non comporta parametri come tassi di apprendimento o criteri di convergenza. LLE si adatta bene anche alla dimensione intrinseca di . La funzione obiettivo per LLE è La matrice di peso elementi per gli oggetti e sono impostati a zero seY

ζ(Y)=(YWY)2=Y(IW)(IW)Y
Wwijijjnon è il vicino più vicino di , altrimenti i pesi per i vicini K-vicini dell'oggetto sono determinati mediante un minimo di adattamenti di dove la variabile dipendente è un vettore di uno, è una matrice Gram per tutti i vicini più vicini dell'oggetto e è un vettore di pesi che seguono vincoli di somma in unità. Sia un semidefinito positivo simmetricoii
U=Gβ
UK×1GK×KiβK×1DK×Kp x i G τ τ l m = - 1matrice della distanza per tutte le coppie dei vicini K-più vicini dell'oggetto -dimensionale . Si può dimostrare che è uguale alla matrice della distanza doppiamente centrata con elementi I coefficienti di regressione sono determinati numericamente usando pxiGτ
τlm=12(dlm21Kldlm21Kmdlm2+lmdlm2).
K
βK×1=(ττ)K×K1τUK×1,
e vengono controllati per confermare che si sommano all'unità. I valori di sono incorporati nella riga di nelle varie posizioni della colonna corrispondenti ai vicini K più vicini dell'oggetto , nonché agli elementi di trasposizione. Questo si ripete per ogni esimo oggetto nell'insieme di dati. Vale la pena notare che se il numero dei vicini più vicini è troppo basso, allora può essere scarso e rendere difficile l'autovalisi. È stato osservato che vicini più vicini hanno portato aβiWiiKWK=9Wmatrici che non contenevano patologie durante l'autovalisi. La funzione obiettiva viene minimizzata trovando gli autovalori non zero più piccoli di La forma ridotta di è rappresentata da dove ha dimensioni basate sui due autovalori più bassi di .
(IW)(IW)E=ΛDE.
XY=EEn×2Λ


"K = 9 vicini più vicini" Questo non dipende dalla dimensionalità di ? Ad esempio, se ha meno di 9 dimensioni, la matrice di peso non viene determinata in modo univoco. Questo causa problemi con LLE? Y WYYW
Scott

Sì, ma se ci sono, diciamo, 8 dimensioni, per i dati casuali letteralmente ogni punto può essere scritto perfettamente come una combinazione lineare di altri 9, in un numero infinito di modi.
Scott

Esistono sempre scenari "what if" durante l'implementazione di una tecnica ed è per questo che vengono utilizzati i vincoli dei parametri.
NXG Logic
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.