La tua domanda affronta il problema "esatto" di recupero (vogliamo recuperare un k-sparse X dato esattamente A x ). Nel seguito, tuttavia, mi concentrerò sulla versione "robusta", dove X è un vettore arbitrario e l'obiettivo dell'algoritmo di recupero è trovare un'approssimazione K -sparse da X' a X (questa distinzione in realtà conta per alcune delle discussioni seguenti ). Formalmente vuoi seguire il problema (chiamalo P1 ):
Progetta UN tale che per ogni X possibile recuperare X' dove
∥ x - x'∥L≤
minx "C∥ x - x " ∥R , dove estende su tutti i vettori -sparse.kx "K
Qui, e indica la norma destra e sinistra e è il "fattore di approssimazione". Sono disponibili varie opzioni per e . Per concretezza, si può pensare che entrambi siano uguali a o ; può diventare più disordinato però. ‖ ⋅ ‖ R C ‖ ⋅ ‖ L ‖ ⋅ ‖ R ℓ 2 ℓ 1∥ ⋅ ∥L∥ ⋅ ∥RC∥ ⋅ ∥L∥ ⋅ ∥Rℓ2ℓ1
Ora ad alcuni analoghi e generalizzazioni.
Base arbitraria. Innanzitutto, osserva che qualsiasi schema che soddisfi la definizione di cui sopra può essere utilizzato per risolvere un problema più generale, in cui il segnale recuperato è scarso in una base arbitraria (diciamo, wavelet di Fourier), non solo quello standard. Sia la matrice di base. Formalmente, un vettore è -sparse in base se dove è -sparse. Ora possiamo considerare il problema generalizzato (chiamalo ): B u k B u = B v v k P Bx′BukBu=BvvkPB
Progetta tale che dato , si possa recuperare doveA B x x ′ ‖ x - x ′ ‖ L ≤ABABxx′∥x−x′∥L≤
x " k Bminx"C∥x−x"∥R , dove gamme oltre tutti i vettori che sono -sparse Consente in .x"kB
È possibile ridurre questo problema al problema precedente modificando la base, ovvero utilizzando una matrice di misurazione . Se abbiamo una soluzione a nella norma (cioè, le norme sinistra e destra uguali a ), otteniamo anche una soluzione a nella norma . Se utilizza altre norme, risolviamo in quelle norme modificate cambiando la base.P1 P 1 ℓ 2 ℓ 2 P B ℓ 2 P 1 P BAB=AB−1P1ℓ2ℓ2PBℓ2P1PB
Un avvertimento di cui sopra è che nell'approccio di cui sopra, abbiamo bisogno di conoscere la matrice per definire . Sorprendentemente, se ammettiamo randomizzazione ( non è fisso, ma invece scelto a caso), è possibile scegliere da una distribuzione fissa indipendente dal . Questa è la cosiddetta proprietà dell'universalità .A B A B A B BBABABABB
Dizionari. La prossima generalizzazione può essere ottenuta lasciando cadere il requisito che è una base. Invece, possiamo consentire a di avere più righe che colonne. Tali matrici sono chiamate dizionari (incompleti). Un esempio popolare è la matrice di identità in cima alla matrice di Fourier. Un altro esempio è una matrice in cui le righe sono i vettori caratteristici di tutti gli intervalli in {1 ... n}; in questo caso, l'insieme { } contiene tutti gli " istogrammi ", ovvero le costanti a tratti su {1 ... n} con al massimo pezzi.B B u : u è k-sparse k kBBBu:u is k-sparsekk
Per quanto ne so non esiste una teoria generale per tali dizionari arbitrari, sebbene ci sia stata una buona dose di lavoro su questo argomento. Vedere ad esempio,
Candes-Eldar-Needell'10 o
Donoho-Elad-Temlyakov, IEEE Transactions on Information Theory, 2004 .
Lo sketch per gli istogrammi è stato ampiamente studiato nella letteratura di streaming e database, ad esempio
Gilbert-Guha-Indyk-Kotidis-Muthukrishnan-Strauss, STOC 2002 o
Thaper-Guha-Indyk-Koudas, SIGMOD 2002 .
Modelli. (menzionato anche da Arnab). Una diversa generalizzazione consiste nell'introdurre restrizioni sugli schemi di scarsità. Sia un sottoinsieme di -subset di {1 ... n}. Diciamo che è -sparse Consente se il supporto di è incluso in un elemento di . Ora possiamo porre il problema (chiamalo ):k u M u M P MMkuMuMPM
Progetta tale che per ogni possibile recuperare dovex x ′ ‖ x - x ′ ‖ L ≤Axx′∥x−x′∥L≤
x " Mminx"C∥x−x"∥R , dove estende su tutti i vettori -sparse.x"M
Ad esempio, gli elementi di potrebbero essere nella forma , dove ogni corrisponde a un "blocco secondario" di {1 ... n} di una certa lunghezza , ovvero è di il modulo {jb + 1 ... (j + 1) b} per alcuni . Questo è il cosiddetto modello "block sparsity". I 1 ∪ ... ∪ I k che i b I i jMI1∪…∪IkIibIij
I vantaggi dei modelli sono che si può risparmiare sul numero di misurazioni, rispetto all'approccio generico -sparsity. Questo perché lo spazio dei segnali -sparse è più piccolo dello spazio di tutti i segnali -sparse, quindi la matrice deve conservare meno informazioni. Per ulteriori informazioni, consultare
Baraniuk-Cevher-Duarte-Hegde, Transazioni IEEE sulla teoria dell'informazione, 2010 o
Eldar-Mishali, Transazioni IEEE sulla teoria dell'informazione, 2009 .M k AkMkA
Spero che sia di aiuto.