La regolarizzazione di Tikhonov è la stessa della regressione di Ridge?


Risposte:


47

La regolarizzazione di Tikhonov è un insieme più ampio della regressione della cresta. Ecco il mio tentativo di precisare esattamente come differiscono.

Supponiamo che per una matrice nota e il vettore , desideriamo trovare un vettore tale che:b xAbx

Ax=b .

L'approccio standard è la normale regressione lineare dei minimi quadrati. Tuttavia, se nessuna soddisfa l'equazione o più di una - questa è la soluzione non unica - si dice che il problema sia mal posto. I minimi quadrati ordinari cercano di minimizzare la somma dei residui quadrati, che può essere scritta in modo compatto come:xxx

Axb2

dove è la norma euclidea. Nella notazione matriciale la soluzione, indicata da x^ , è data da:

x^=(ATA)1ATb

La regolarizzazione di Tikhonov minimizza

Axb2+Γx2

per una matrice Tikhonov opportunamente scelta, . Una soluzione di modulo a matrice esplicita, indicata da , è data da:xΓx^

x^=(ATA+ΓTΓ)1ATb

L'effetto della regolarizzazione può essere variato tramite la scala di matrice . Per questo si riduce alla soluzione non regolamentata dei minimi quadrati purché esista (A T A) −1 .Γ = 0ΓΓ=0

Tipicamente per la regressione della cresta , sono descritte due partenze dalla regolarizzazione di Tikhonov. Innanzitutto, la matrice di Tikhonov è sostituita da un multiplo della matrice di identità

Γ=αI ,

dando la preferenza a soluzioni con norma più piccola, ovvero la norma . Quindi diventa conduce aΓ T Γ α 2 IL2ΓTΓα2I

x^=(ATA+α2I)1ATb

Infine, per la regressione della cresta, si presume in genere che le variabili siano ridimensionate in modo che abbia la forma di una matrice di correlazione. e è il vettore di correlazione tra i variabili e , portando aX T X X T b x bAXTXXTbxb

x^=(XTX+α2I)1XTb

Nota in questo modulo il moltiplicatore di Lagrange viene solitamente sostituito da , o qualche altro simbolo ma mantiene la proprietà k λ λ 0α2kλλ0

Nel formulare questa risposta, riconosco di prendere in prestito liberamente da Wikipedia e dalla stima di Ridge dei pesi delle funzioni di trasferimento


10
(+1) Per completezza, vale la pena ricordare che nell'applicazione pratica il sistema regolarizzato verrebbe tipicamente scritto nella forma , che può quindi essere risolto come un problema di minimi quadrati lineari standard (ad esempio tramite QR / SVD su , senza formare esplicitamente le equazioni normali). [AαΓ]x[b0]A^xb^A^
GeoMatt22,

Buon punto. Lo aggiungerò più tardi.
Carl,

Le spline leviganti e metodi di espansione di basi simili sono un sottoinsieme della regolarizzazione di Tikhonov?
Sycorax dice di ripristinare Monica il

@Sycorax Non me lo aspetto. Ad esempio, una B-spline imposterebbe le derivate su zero agli endpoint e corrisponderebbe le derivate e le magnitudini della spline ai dati tra gli endpoint. La regolarizzazione di Tikhonov minimizzerà qualunque errore di parametro tu gli dica cambiando la pendenza di adattamento. Quindi, cose diverse.
Carl,

Inoltre, la regolarizzazione di Tychonov ha una formulazione in dimensioni arbitrarie per (separabili?) Spazi di Hilbert
AIM_BLB

23

Carl ha dato una risposta esauriente che spiega bene le differenze matematiche tra la regolarizzazione di Tikhonov e la regressione della cresta. Ispirato dalla discussione storica qui , ho pensato che potrebbe essere utile aggiungere un breve esempio che dimostri come il più generale quadro di Tikhonov possa essere utile.

Prima una breve nota sul contesto. La regressione della cresta è nata nelle statistiche e mentre la regolarizzazione è ormai diffusa nella statistica e nell'apprendimento automatico, l'approccio di Tikhonov è stato originariamente motivato da problemi inversi derivanti dall'assimilazione di dati basati su modelli (in particolare in geofisica ). L'esempio semplificato di seguito è in questa categoria (per le ricostruzioni paleoclimatiche vengono utilizzate versioni più complesse ).


Immagina di voler ricostruire le temperature in passato, sulla base delle misurazioni attuali u [ x , t = T ] . Nel nostro modello semplificato supponiamo che la temperatura si evolva secondo l' equazione del calore u t = u x x in 1D con condizioni al contorno periodiche u [ x + L , t ] = u [ x , t ] Un semplice (esplicito)u[x,t=0]u[x,t=T]

ut=uxx
u[x+L,t]=u[x,t]
L' approccio a differenza finita porta al modello discreto Matematicamente, la matrice di evoluzione A è invertibile, quindi abbiamo u t = A - 1 u t + 1 Tuttavianumericamente, sorgeranno difficoltà se l'intervallo di tempoTè troppo lungo.
ΔuΔt=LuΔx2ut+1=Aut
A
ut=A1ut+1
T

La regolarizzazione di Tikhonov può risolvere questo problema risolvendo

Autut+1ωLut0
ω21uxx

Di seguito è riportato un confronto dei risultati:

Tikhonov vs. Checkerboard

u0ufwdu0uinvuregu0

uut0


Il codice Matlab per l'esempio è di seguito (può essere eseguito online qui ).

% Tikhonov Regularization Example: Inverse Heat Equation
n=15; t=2e1; w=1e-2; % grid size, # time steps, regularization
L=toeplitz(sparse([-2,1,zeros(1,n-3),1]/2)); % laplacian (periodic BCs)
A=(speye(n)+L)^t; % forward operator (diffusion)
x=(0:n-1)'; u0=sin(2*pi*x/n); % initial condition (periodic & smooth)
ufwd=A*u0; % forward model
uinv=A\ufwd; % inverse model
ureg=[A;w*L]\[ufwd;zeros(n,1)]; % regularized inverse
plot(x,u0,'k.-',x,ufwd,'k:',x,uinv,'r.:',x,ureg,'ro');
set(legend('u_0','u_{fwd}','u_{inv}','u_{reg}'),'box','off');

Tutti i complimenti hanno ricevuto calorosamente. Vale la pena ricordare, anche se leggermente fuori tema, che sia la regolarizzazione di Tikhonov che la regressione della cresta possono essere utilizzate per colpire obiettivi di regressione fisica. (+1)
Carl

2
v=Lu
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.