La risposta più votata a questa domanda suggerisce che per denigrare un segnale preservando transizioni nitide si dovrebbe
minimizzare la funzione obiettiva:
dove è il segnale rumoroso, è il segnale negato , è il parametro di regolarizzazione eè una penalità di norma L1. Il denoising si ottiene trovando la soluzione a questo problema di ottimizzazione dipende dal livello di rumore.
Tuttavia, non vi è alcuna indicazione di come si possa ottenere questo in pratica in quanto questo è un problema in uno spazio dimensionale molto elevato, specialmente se il segnale è lungo, ad esempio, 10 milioni di campioni. In pratica, come si risolve questo tipo di problema a livello computazionale per segnali di grandi dimensioni?