Una misura assiomatica della sparsità è il cosiddetto conteggio , che conta il numero (finito) di voci diverse da zero in un vettore. Con questa misura, i vettori e possiedono la stessa scarsità. E assolutamente non è la stessa norma . E (molto scarso) ha la stessa norma di , un vettore molto piatto, non rado. E assolutamente non lo stesso conteggio .ℓ0(1,0,0,0)(0,21,0,0)ℓ2(1,0,0,0)ℓ2(14,14,14,14)ℓ0
Questa funzione, né una norma né un quasinorm, è non liscia e non convessa. A seconda del dominio, i suoi nomi sono legione, ad esempio: funzione di cardinalità, misura della numerosità o semplicemente parsimonia o scarsità. È spesso considerato poco pratico per scopi pratici poiché il suo uso porta a problemi NP difficili .
Mentre distanze o norme (come ad esempio lo standard distanza euclidea) sono più trattabili, uno dei loro problemi è la loro -homogeneity:per . Questo potrebbe essere visto come non intuitivo, in quanto il prodotto scalare non modifica la proporzione di voci nulle nei dati ( è -omogeneo).ℓ21
∥a.x∥=|a|∥x∥
a≠0ℓ00
Quindi, in pratica, alcuni si basano su combinazioni di termini ( ), come lazo, cresta o regolarizzazioni della rete elastica. La norma (distanza di Manhattan o Taxicab), o i suoi avatar levigati, è particolarmente utile. Poiché le opere di E. Candès e altri, si può spiegare perché è una buona approssimazione a : una spiegazione geometrica . Altri hanno creato in , al prezzo di problemi di non convessità.p ≥ 1 ℓ 1 ℓ 1 ℓ 0 p < 1 ℓ p ( x )ℓp(x)p≥1ℓ1ℓ1ℓ0p<1ℓp(x)
Un altro percorso interessante è ri-assiomizzare la nozione di scarsità. Una delle opere recenti più importanti è Comparing Measures of Sparsity , di N. Hurley et al., Che si occupa della scarsità delle distribuzioni. Da sei assiomi (con nomi divertenti come Robin Hood, Scaling, Rising Tide, Cloning, Bill Gates e Babies), sono emersi un paio di indici di sparsità: uno basato sull'indice Gini, un altro sui rapporti di norma, specialmente quello over-over- due rapporto normativo, mostrato di seguito:ℓ1ℓ2
Sebbene non convesse, alcune prove di convergenza e alcuni riferimenti storici sono dettagliati in Euclid in un Taxicab: Sparse Blind Deconvolution con Smoothed regolarizzazioneℓ1ℓ2 .