Definizione e convergenza dei minimi quadrati ripetuti iterativamente


16

Ho usato i minimi quadrati reiterati (IRLS) per ridurre al minimo le funzioni del seguente modulo,

J(m)=i=1Nρ(|xim|)

dove è il numero di istanze di , è la stima attendibile che desidero e è una funzione di penalità robusta adatta. Diciamo che è convesso (anche se non necessariamente rigorosamente) e differenziabile per ora. Un buon esempio di tale è la funzione di perdita di Huber .NxiRmRρρ

Quello che ho fatto è differenziare rispetto a (e manipolarlo) per ottenere,J(m)m

dJdm=i=1Nρ(|xim|)|xim|(xim)

e risolvendo iterativamente impostandolo su 0 e fissando i pesi sull'iterazione su (nota che la singolarità percepita è davvero una singolarità rimovibile in tutta 's potrei cura di). Quindi ottengo,kwi(k)=ρ(|xim(k)|)|xim(k)|xi=m(k)ρ

i=1Nwi(k)(xim(k+1))=0

e risolvo per ottenere, m(k+1)=i=1Nwi(k)xii=1Nwi(k) .

Ripeto questo algoritmo a virgola fissa fino a "convergenza". Noterò che se arrivi a un punto fisso, sei ottimale, poiché la tua derivata è 0 ed è una funzione convessa.

Ho due domande su questa procedura:

  1. È questo l'algoritmo IRLS standard? Dopo aver letto diversi articoli sull'argomento (ed erano molto sparsi e vaghi su cosa sia IRLS) questa è la definizione più coerente dell'algoritmo che riesco a trovare. Posso pubblicare i documenti se la gente vuole, ma in realtà non volevo influenzare nessuno qui. Naturalmente, puoi generalizzare questa tecnica di base a molti altri tipi di problemi che coinvolgono il vettore xi e argomenti diversi da |xim(k)|, fornendo l'argomento è una norma di una funzione affine dei tuoi parametri. Qualsiasi aiuto o intuizione sarebbe fantastico su questo.
  2. La convergenza sembra funzionare nella pratica, ma ho alcune preoccupazioni al riguardo. Devo ancora vederne una prova. Dopo alcune semplici simulazioni di Matlab vedo che un'iterazione di questo non è una mappatura della contrazione (ho generato due istanze casuali di calcolo e ha notato che occasionalmente è maggiore di 1). Anche la mappatura definita da più iterazioni consecutive non è strettamente una mappatura della contrazione, ma la probabilità che la costante di Lipschitz sia superiore a 1 diventa molto bassa. Quindi esiste una nozione di mappatura della contrazione in probabilità ? Quali sono i macchinari che utilizzerei per dimostrare che questo converge? Converge persino?| m 1 ( k + 1 ) - m 2 ( k + 1 ) |m|m1(k+1)m2(k+1)||m1(k)m2(k)|

Qualsiasi consiglio è utile.

Modifica: mi piace il documento su IRLS per il recupero sparso / rilevamento compressivo di Daubechies et al. 2008 "Minimizzazione iterativamente ridimensionata dei minimi quadrati per il recupero rado" su arXiv. Ma sembra concentrarsi principalmente sui pesi per problemi non convessi. Il mio caso è notevolmente più semplice.


Guardando la pagina wiki su IRWLS, faccio fatica a fare la differenza tra la procedura che descrivi e IRWLS (usano semplicemente come loro particolare funzione ). Puoi spiegare in che modo ritieni che l'algoritmo che proponi sia diverso dall'IRWLS? ρ|yio-XXio'ββ|2ρ
user603

Non ho mai affermato che fosse diverso, e se lo avessi insinuato, non intendevo farlo.
Chris A.

Risposte:


10

Per quanto riguarda la tua prima domanda, si dovrebbe definire "standard" o riconoscere che un "modello canonico" è stato gradualmente stabilito. Come indicato da un commento, sembra almeno che il modo in cui usi IRWLS sia piuttosto standard.

Per quanto riguarda la tua seconda domanda, "la mappatura della contrazione in probabilità" potrebbe essere collegata (comunque informalmente) alla convergenza di "algoritmi stocastici ricorsivi". Da quello che ho letto, c'è un'enorme letteratura sull'argomento principalmente in Ingegneria. In Economia ne usiamo un po ', in particolare le opere seminali di Lennart Ljung - il primo articolo era Ljung (1977) - che mostrava che la convergenza (o meno) di un algoritmo stocastico ricorsivo può essere determinata dalla stabilità (o non) di un'equazione differenziale ordinaria correlata.

(ciò che segue è stato rielaborato dopo una fruttuosa discussione con l'OP nei commenti)

Convergenza

Userò come riferimento Sabre Elaydi "An Introduction to Difference Equations", 2005, 3d ed. L'analisi è subordinata a un dato campione di dati, quindi le vengono trattate come fisse. xs

La condizione del primo ordine per la minimizzazione della funzione obiettivo, vista come una funzione ricorsiva in , m ( k + 1 ) = N i = 1 v i [ m ( k ) ] x i ,m

m(k+1)=i=1Nvi[m(k)]xi,vi[m(k)]wi[m(k)]i=1Nwi[m(k)][1]

ha un punto fisso (l'argmin della funzione oggettiva). Con Teorema 1.13 pp. 27-28 di Elaydi, se la prima derivata rispetto a dell'RHS di , valutata nel punto fisso , denota , è minore dell'unità in valore assoluto, quindi è asintoticamente stabile (AS). Inoltre, secondo il Teorema 4.3 p.179, ciò implica anche che il punto fisso è uniformemente AS (UAS). "Asintoticamente stabile" significa che per un intervallo di valori attorno al punto fisso, un vicinato , non necessariamente di piccole dimensioni, il punto fisso è attraente[ 1 ] m A ( m ) m ( m ± γ ) γ = m[1]mA(m)m
(m±γ)e quindi se l'algoritmo fornisce valori in questo vicinato, converge. Essendo la proprietà "uniforme", significa che il confine di questo quartiere, e quindi la sua dimensione, è indipendente dal valore iniziale dell'algoritmo. Il punto fisso diventa UAS globale , se . Quindi nel nostro caso, se lo dimostriamoγ=

|A(m)||i=1Nvi(m)mxi|<1[2]

abbiamo dimostrato la proprietà UAS, ma senza convergenza globale. Quindi possiamo provare a stabilire che il quartiere di attrazione è in realtà l'intero numero reale esteso, oppure che lo specifico valore iniziale utilizzato dall'OP come menzionato nei commenti (ed è standard nella metodologia IRLS), ovvero la media del campione delle 's, , appartiene sempre al quartiere di attrazione del punto fisso.ˉ xxx¯

Calcoliamo la derivata

vi(m)m=wi(m)mi=1Nwi(m)wi(m)i=1Nwi(m)m(i=1Nwi(m))2

=1i=1Nwi(m)[wi(m)mvi(m)i=1Nwi(m)m]
Quindi

A(m)=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)i=1Nvi(m)xi]

=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)m]

e

|A(m)|<1|i=1Nwi(m)m(xim)|<|i=1Nwi(m)|[3]

noi abbiamo

wi(m)m=ρ(|xim|)xim|xim||xim|+xim|xim|ρ(|xim|)|xim|2=xim|xim|3ρ(|xim|)ρ(|xim|)xim|xim|2=xim|xim|2[ρ(|xim|)|xim|ρ(|xim|)]=xim|xim|2[wi(m)ρ(|xim|)]

Inserendo questo in abbiamo[3]

|i=1Nxim|xim|2[wi(m)ρ(|xim|)](xim)|<|i=1Nwi(m)|

|i=1Nwi(m)i=1Nρ(|xim|)|<|i=1Nwi(m)|[4]

Questa è la condizione che deve essere soddisfatta affinché il punto fisso sia UAS. Poiché nel nostro caso la funzione di penalità è convessa, le somme coinvolte sono positive. Quindi la condizione è equivalente a[4]

i=1Nρ(|xim|)<2i=1Nwi(m)[5]

Se è la funzione di perdita di Hubert, allora abbiamo un ramo quadratico ( ) e un lineare ( ),ρ(|xim|)ql

ρ(|xim|)={(1/2)|xim|2|xim|δδ(|xim|δ/2)|xim|>δ

e

ρ(|xim|)={|xim||xim|δδ|xim|>δ

ρ(|xim|)={1|xim|δ0|xim|>δ

{wi,q(m)=1|xim|δwi,l(m)=δ|xim|<1|xim|>δ

Dal momento che non sappiamo quanti dei nel ramo quadratico e quanti nel lineare, scomponiamo la condizione come ( )|xim|[5]Nq+Nl=N

i=1Nqρq+i=1Nlρl<2[i=1Nqwi,q+i=1Nlwi,l]

Nq+0<2[Nq+i=1Nlwi,l]0<Nq+2i=1Nlwi,l

che regge. Quindi per la funzione di perdita di Huber il punto fisso dell'algoritmo è uniformemente asintoticamente stabile, indipendentemente dalle 's. Notiamo che la prima derivata è più piccola dell'unità in valore assoluto per qualsiasi , non solo il punto fisso. xm

Quello che dovremmo fare ora è dimostrare che anche la proprietà UAS è globale, o che, se allora appartiene al quartiere di attrazione di .m(0)=x¯m(0)m


Grazie per la risposta. Dammi un po 'di tempo per analizzare questa risposta.
Chris A.

Certamente. Dopotutto, la domanda ha aspettato 20 mesi.
Alecos Papadopoulos,

Sì, mi è stato ricordato il problema e ho deciso di fare una taglia. :)
Chris A.

Fortunato me. Non ci sono stato 20 mesi fa - avrei accettato questa domanda, generosità o meno.
Alecos Papadopoulos,

Grazie mille per questa risposta. Sembra che, finora, tu abbia guadagnato la taglia. A proposito, la tua indicizzazione sulla derivata di wrt è notoriamente strana. Le somme sulla seconda riga di questo non potrebbero usare un'altra variabile, come ? vimj
Chris A.
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.