La percentuale di errore è una funzione convessa del parametro di regolarizzazione lambda?


11

Nella scelta del parametro di regolarizzazione lambda in Ridge o Lasso, il metodo consigliato è provare diversi valori di lambda, misurare l'errore nel set di convalida e infine scegliere quel valore di lambda che restituisce l'errore più basso.

Non è un problema per me se la funzione f (lambda) = errore è convessa. Potrebbe essere così? Vale a dire che questa curva potrebbe avere più di un minimo locale (il che implicherebbe che trovare un minimo dell'errore in una regione di lambda non preclude la possibilità che in un'altra regione vi sia una lambda che restituisce un errore ancora più piccolo)

inserisci qui la descrizione dell'immagine

Il tuo consiglio sarà apprezzato.

Risposte:


11

La domanda originale chiedeva se la funzione di errore deve essere convessa. No non lo fa. L'analisi presentata di seguito ha lo scopo di fornire alcune intuizioni e intuizioni su questo e sulla domanda modificata, che chiede se la funzione di errore possa avere più minimi locali.

Intuitivamente, non ci deve essere alcuna relazione matematicamente necessaria tra i dati e il set di addestramento. Dovremmo essere in grado di trovare dati di allenamento per i quali il modello inizialmente è scarso, migliora con un po 'di regolarizzazione e poi peggiora di nuovo. La curva di errore non può essere convessa in quel caso - almeno non se facciamo variare il parametro di regolarizzazione da a .0

Nota che convesso non equivale ad avere un minimo unico! Tuttavia, idee simili suggeriscono che sono possibili più minimi locali: durante la regolarizzazione, prima il modello adattato potrebbe migliorare per alcuni dati di allenamento mentre non cambia sensibilmente per altri dati di allenamento, quindi in seguito migliorerà per altri dati di allenamento, ecc. la combinazione di tali dati di formazione dovrebbe produrre multipli minimi locali. Per semplificare l'analisi non tenterò di dimostrarlo.

Modifica (per rispondere alla domanda modificata)

Ero così fiducioso nell'analisi presentata di seguito e nell'intuizione che stava dietro che mi ero prefissato di trovare un esempio nel modo più rozzo possibile: ho generato piccoli set di dati casuali, eseguito un Lazo su di essi, calcolato l'errore quadratico totale per un piccolo set di allenamento, e tracciava la sua curva di errore. Alcuni tentativi hanno prodotto uno con due minimi, che descriverò. I vettori sono nel formato per le funzioni e e la risposta .(x1,x2,y)x1x2y

Dati di allenamento

(1,1,0.1), (2,1,0.8), (1,2,1.2), (2,2,0.9)

Dati di test

(1,1,0.2), (1,2,0.4)

Il Lazo è stato eseguito usando glmnet::glmmetin R, con tutti gli argomenti lasciati ai loro valori predefiniti. I valori di sull'asse x sono i reciproci dei valori riportati da quel software (perché parametrizza la sua penalità con ).λ1/λ

Una curva di errore con più minimi locali

figura


Analisi

Consideriamo qualsiasi metodo di regolarizzazione per adattare i parametri ai dati e alle risposte corrispondenti che hanno queste proprietà comuni a Ridge Regression e Lasso:β=(β1,,βp)xiyi

  1. (Parametrizzazione) Il metodo è parametrizzato da numeri reali , con il modello non regolamentato corrispondente a .λ[0,)λ=0

  2. (Continuità) La stima dei parametri dipende continuamente da e i valori previsti per qualsiasi funzione variano continuamente con .β^λβ^

  3. (Restringimento) Come , .λβ^0

  4. (Finezza) Per ogni vettore caratteristica , come , la previsione .xβ^0y^(x)=f(x,β^)0

  5. (Errore monotonico) La funzione di errore che confronta qualsiasi valore con un valore previsto , , aumenta con la discrepanzain modo che, con qualche abuso di notazione, possiamo esprimerlo come .yy^L(y,y^)|y^y|L(|y^y|)

(Zero in potrebbe essere sostituito da qualsiasi costante.)(4)

Supponiamo che i dati siano tali che la stima del parametro iniziale (non regolamentata) non sia zero. Let costrutto un set di dati di formazione composto da un'osservazione per il quale . (Se non è possibile trovare un tale , il modello iniziale non sarà molto interessante!) Impostare . β^(0)(x0,y0)f(x0,β^(0))0x0y0=f(x0,β^(0))/2

Le ipotesi implicano che la curva di errore ha queste proprietà:e:λL(y0,f(x0,β^(λ))

  1. e(0)=L(y0,f(x0,β^(0))=L(y0,2y0)=L(|y0|) (a causa di la scelta di ).y0

  2. limλe(λ)=L(y0,0)=L(|y0|) (perché come , , da cui ).λβ^(λ)0y^(x0)0

Pertanto, il suo grafico collega continuamente due endpoint ugualmente alti (e finiti).

Figura che mostra un grafico accettabile di $ e $.

Qualitativamente, ci sono tre possibilità:

  • La previsione per il set di allenamento non cambia mai. Questo è improbabile: quasi tutti gli esempi scelti non avranno questa proprietà.

  • Alcune previsioni intermedie per sono peggiori rispetto all'inizio o nel limite da . Questa funzione non può essere convessa.0<λ<λ=0λ

  • Tutte le previsioni intermedie si trovano tra e . La continuità implica che ci sarà almeno un minimo di , vicino al quale deve essere convesso. Ma poiché avvicina asintoticamente ad una costante finita , non può essere convessa per abbastanza .02y0eee(λ)λ

La linea tratteggiata verticale nella figura mostra dove la trama cambia da convessa (alla sua sinistra) a non convessa (a destra). (C'è anche una regione di non convessità vicino a in questa figura, ma questo non sarà necessariamente il caso in generale.)λ0


Grazie per la tua elaborata risposta. Se possibile, rivedi la domanda mentre ho modificato e aggiorna la tua risposta.
rf7,

Ottima risposta (+1). In pratica, penso che spesso non ci siano così pochi punti di addestramento e test. La conclusione di questa risposta cambia quando ci sono abbastanza punti dati di training e test tratti dalla stessa distribuzione (fissa e sufficientemente regolare)? In particolare, in questo scenario, esiste un minimo locale unico con alta probabilità?
user795305

@Ben Non è il numero di punti di prova che conta: questo risultato dipende interamente dalla distribuzione dei punti di prova rispetto alla distribuzione dei punti di allenamento. Pertanto il problema di "con alta probabilità" non sarà responsabile senza fare alcune ipotesi specifiche sulla distribuzione multivariata delle variabili del regressore. Inoltre, con molte variabili in gioco questo fenomeno di multipli minimi locali sarà molto più probabile. Ho il sospetto che la selezione casuale di un ampio set di test (con molte volte tante osservazioni quante variabili) potrebbe spesso avere un unico min globale.
whuber

1
@whuber Grazie! Concordo: la (vera) distribuzione tra i punti di addestramento e test dovrebbe essere la stessa, e ci devono essere abbastanza campioni che le distribuzioni empiriche del set di addestramento e test siano d'accordo. (Sembra che lo abbia espresso male nel mio precedente commento.) Ad esempio, se ha una distribuzione congiuntamente normale (con covarianza non generata), sospetto che la probabilità che la curva di errore abbia un min locale unico converge in 1 (se, diciamo, ci sono campioni nell'allenamento e nel set di test con con fisso (o addirittura aumentando lentamente rispetto a ))(x,y)nnpn
user795305

0

Questa risposta riguarda specificamente il lazo (e non vale per la regressione della cresta).

Impostare

Supponiamo di avere covariate che stiamo usando per modellare una risposta. Supponiamo di avere punti dati di addestramento e punti dati di validazione.pnm

Lascia che l'input di training sia e che la risposta sia . Useremo il lazo su questi dati di allenamento. Cioè, inserisci una famiglia di coefficienti stimati dai dati di allenamento. Sceglieremo quale usare come nostro stimatore in base al suo errore in un set di validazione, con input e risposta . ConX(1)Rn×py(1)Rn

(1)β^λ=argminβRpy(1)X(1)β22+λβ1,
β^λX(2)Rm×py(2)Rm
(2)λ^=argminλR+y(2)X(2)β^λ22,
ci interessa studiare la funzione di errore che dà origine al nostro strumento di sui dati .e(λ)=y(2)X(2)β^λ22β^λ^

Calcolo

Ora, calcoliamo la derivata seconda dell'obiettivo nell'equazione , senza fare alcuna ipotesi di distribuzione sulla 's o ' s. Usando la differenziazione e una certa riorganizzazione, calcoliamo (formalmente) che (2)Xy

2λ2y(2)X(2)β^λ22=λ{2y(2)TX(2)λβ^λ+2β^λTX(2)TX(2)λβ^λ}=2y(2)TX(2)2λ2β^λ+2(β^λ)TX(2)TX(2)2λ2β^λ+2λβ^λTX(2)TX(2)Tλβ^λ=2{(y(2)X(2)β^λ)T2λ2β^λX(2)λβ^λ22}.
Poiché è lineare a tratti per (poiché è l'insieme finito di nodi nel percorso della soluzione lazo), la derivata è costante a tratti e è zero per tutti . Pertanto, una funzione non negativa di .β^λλKKλβ^λ2λ2β^λλK
2λ2y(2)X(2)β^λ22=2X(2)λβ^λ22,
λ

Conclusione

Se assumiamo ulteriormente che sia tratto da una distribuzione continua indipendente da , il vettore quasi sicuramente per . Pertanto, la funzione di errore ha una seconda derivata su che è (quasi sicuramente) strettamente positiva. Tuttavia, sapendo che è continuo, sappiamo che l'errore di validazione è continuo.X(2){X(1),y(1)}X(2)λβ^λ0λ<λmaxe(λ)RKβ^λe(λ)

Infine, dal doppio lazo, sappiamo che diminuisce monotonicamente all'aumentare di . Se possiamo stabilire che è anche monotonico, allora segue la forte convessità di . Tuttavia, ciò vale con una probabilità che si avvicina a uno se . (Compilerò i dettagli qui presto.)X(1)β^λ22λX(2)β^λ22e(λ)L(X(1))=L(X(2))


1
Affidati solo a essendo una funzione lineare continua a tratti di per concludere è strettamente convessa. Vediamo se tale detrazione è generalmente valida. Una di queste funzioni è(dove indica l'arrotondamento al numero intero più vicino). Supponiamo che e , in modo che . Questa funzione di errore ha infiniti minimi locali. Non è convesso - è solo convesso ovunque tranne che in punti isolati! Questo mi porta a credere che stai facendo ulteriori ipotesi non dichiarate. β^λe^β^(λ)=|λ[λ]|[]y(2)=0X(2)=1e^(λ)=β^(λ)2
whuber

@whuber Ottimo punto! Grazie! Modificherò questo post più presto.
user795305,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.