Si dice spesso che la regressione del processo gaussiano corrisponda (GPR) alla regressione lineare bayesiana con una quantità (forse) infinita di funzioni di base. Attualmente sto cercando di capire questo in dettaglio per ottenere un'intuizione per quale tipo di modelli posso esprimere usando GPR.
- Pensi che questo sia un buon approccio per cercare di capire il GPR?
Nel libro Gaussian Processes for Machine learning Rasmussen e Williams mostrano che l'insieme dei processi gaussiani descritti dal kernel esponenziale parametrizzato quadrato può essere equivalentemente descritto come regressione bayesiana con precedente convinzionew∼N(0,σ 2 p I)sui pesi e una quantità infinita di funzioni base della formaϕc(x;l)=exp(-(x-c)2
- La parametrizzazione di un kernel differenziabile può sempre essere tradotta in parametrizzazione delle funzioni precedenti e di base o esistono kernel differenziabili in cui, ad esempio, il numero delle funzioni di base dipende dalla configurazione?
La mia prossima domanda riguarda l'inverso del teorema di mercer.
- Quali set di funzioni di base portano a kernel validi?
E l'estensione
- Quali set di funzioni di base parametrizzate portano a kernel differenziabili validi?