Domande taggate «optimization»

Usa questo tag per qualsiasi utilizzo dell'ottimizzazione all'interno delle statistiche.





3
L'ottimizzazione della PCA è convessa?
La funzione oggettiva dell'analisi dei componenti principali (PCA) è ridurre al minimo l'errore di ricostruzione nella norma L2 (vedere la sezione 2.12 qui . Un'altra visione sta cercando di massimizzare la varianza sulla proiezione. Abbiamo anche un post eccellente qui: qual è la funzione oggettiva della PCA ? ). La …

2
Come risolvere la minima deviazione assoluta con il metodo simplex?
Ecco il problema di deviazione meno assoluto in questione: argminwL(w)=∑ni=1|yi−wTx|arg⁡minwL(w)=∑i=1n|yi−wTx| \underset{\textbf{w}}{\arg\min} L(w)=\sum_{i=1}^{n}|y_{i}-\textbf{w}^T\textbf{x}| . So che può essere riorganizzato come problema LP nel seguente modo: min∑ni=1uimin∑i=1nui\min \sum_{i=1}^{n}u_{i} ui≥xTw−yii=1,…,nui≥xTw−yii=1,…,nu_i \geq \textbf{x}^T\textbf{w}- y_{i} \; i = 1,\ldots,n ui≥−(xTw−yi)i=1,…,nui≥−(xTw−yi)i=1,…,nu_i \geq -\left(\textbf{x}^T\textbf{w}-y_{i}\right) \; i = 1,\ldots,n Ma non ho idea di risolverlo passo dopo passo, …



1
RMSProp e Adam vs SGD
Sto eseguendo esperimenti sul set di validazione EMNIST usando le reti con RMSProp, Adam e SGD. Sto ottenendo una precisione dell'87% con SGD (tasso di apprendimento di 0,1) e dropout (0.1 drop prob) e regolarizzazione L2 (penalità 1e-05). Quando collaudo la stessa configurazione esatta con RMSProp e Adam, nonché il …


2
Usa il coefficiente di correlazione di Pearson come obiettivo di ottimizzazione nell'apprendimento automatico
Nell'apprendimento automatico (per problemi di regressione), vedo spesso errore medio quadrato (MSE) o errore assoluto medio (MAE) utilizzato come funzione di errore per minimizzare (oltre al termine di regolarizzazione). Mi chiedo se ci sono situazioni in cui l'uso del coefficiente di correlazione sarebbe più appropriato? se tale situazione esiste, quindi: …

1
Qual è la connessione tra regolarizzazione e metodo dei moltiplicatori di lagrange?
Per evitare il sovradimensionamento delle persone, le persone aggiungono un termine di regolarizzazione (proporzionale alla somma quadrata dei parametri del modello) con un parametro di regolarizzazione alla funzione di costo della regressione lineare. Questo parametro lo stesso di un moltiplicatore di lagrange? Quindi la regolarizzazione è la stessa del metodo …

1


2
I parametri di massima verosimiglianza si discostano dalle distribuzioni posteriori
Ho una funzione di verosimiglianza per la probabilità dei miei dati dati alcuni parametri del modello , che vorrei stimare. Assumendo priori piatti sui parametri, la probabilità è proporzionale alla probabilità posteriore. Uso un metodo MCMC per provare questa probabilità.L (d| θ)L(d|θ)\mathcal{L}(d | \theta)dddθ ∈ RNθ∈RN\theta \in \mathbf{R}^N Osservando la …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.