Quindi sto cercando di insegnare a me stesso le reti neurali (per applicazioni di regressione, non classificare immagini di gatti). I miei primi esperimenti sono stati l'addestramento di una rete per implementare un filtro FIR e una trasformata discreta di Fourier (addestramento sui segnali "prima" e "dopo"), dal momento che …
Supponiamo di fare un esempio di giocattolo su gradiente decente, riducendo al minimo una funzione quadratica , utilizzando la dimensione del gradino fissa . ( )XTA xXTUNXx^TAxα = 0,03α=0.03\alpha=0.03A = [ 10 , 2 ; 2 , 3 ]UN=[10,2;2,3]A=[10, 2; 2, 3] Se tracciamo la traccia di in ogni iterazione, …
Sto addestrando una semplice rete neurale convoluzionale per la regressione, in cui il compito è prevedere la posizione (x, y) di una scatola in un'immagine, ad esempio: L'output della rete ha due nodi, uno per x e uno per y. Il resto della rete è una rete neurale convoluzionale standard. …
Supponiamo di voler calcolare alcune aspettative: EYEX| Y[ f( X, Y) ]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Supponiamo di voler approssimare questo usando la simulazione Monte Carlo. EYEX| Y[ f( X, Y) ] ≈ 1R SΣr = 1RΣs = 1Sf( xr , s, yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Ma supponiamo che è costoso per prelevare dei campioni …
Stavo pensando di risolvere Lasso tramite metodi di laurea alla vaniglia. Ma ho letto persone che suggeriscono di usare la discesa gradiente prossimale. Qualcuno può evidenziare perché per il Lazo si possono usare i metodi GD prossimali anziché i metodi secondari alla vaniglia?
Nel mio libro di testo econometrico (Introduzione all'Ecetretrica) riguardante OLS, l'autore scrive: "SSR deve cadere quando viene aggiunta un'altra variabile esplicativa". Perchè
Sto cercando un pacchetto per aiutarmi a risolvere alcuni problemi di ottimizzazione quadratica e vedo che ci sono almeno una mezza dozzina di pacchetti diversi. Secondo questa pagina: QP (Programmazione quadratica, 90C20): cplexAPI , kernlab , limSolve , LowRankQP , quadprog , Rcplex , Rmosek Alcuni di questi (Rmosek e …
Per impostazione predefinita, quando utilizziamo una glmfunzione in R, utilizza il metodo IWLS (reimpostazione dei minimi quadrati ripetutamente iterativamente) per trovare la stima della massima verosimiglianza dei parametri. Ora ho due domande. Le stime IWLS garantiscono il massimo globale della funzione di probabilità? Sulla base dell'ultima diapositiva di questa presentazione, …
Come posso stimare gli intervalli di confidenza al 95% usando la profilatura per i parametri stimati massimizzando una funzione di verosimiglianza usando optim in R? So di poter stimare asintoticamente la matrice di covarianza invertendo la tela di iuta , ma temo che i miei dati non soddisfino i presupposti …
Questa è una domanda piuttosto generale (cioè non necessariamente specifica per la statistica), ma ho notato una tendenza nell'apprendimento automatico e nella letteratura statistica in cui gli autori preferiscono seguire il seguente approccio: Approccio 1 : ottenere una soluzione a un problema pratico formulando una funzione di costo per la …
Sto cercando un solido riferimento (o riferimenti) su tecniche di ottimizzazione numerica rivolte agli statistici, cioè applicare questi metodi ad alcuni problemi inferenziali standard (ad esempio MAP / MLE in modelli comuni). Cose come discesa gradiente (diritta e stocastica), EM e suoi spinoff / generalizzazioni, ricottura simulata, ecc. Spero che …
Quindi, ho 16 prove in cui sto cercando di autenticare una persona da un tratto biometrico usando Hamming Distance. La mia soglia è impostata su 3,5. I miei dati sono di seguito e solo la versione di prova 1 è un vero positivo: Trial Hamming Distance 1 0.34 2 0.37 …
Una funzione scatola nera f:Rn→Rf:Rn→Rf: \mathbb{R}^n \rightarrow \mathbb{R}, che viene valutato puntualmente in base al rumore gaussiano, ovvero f(x)+N(μ(x),σ(x)2)f(x)+N(μ(x),σ(x)2)f(x) + \mathcal{N}(\mu(x),\sigma(x)^2), può essere ridotto a icona utilizzando l'ottimizzazione bayesiana in cui un processo gaussiano viene utilizzato come modello di funzione rumoroso. Come si può utilizzare l'ottimizzazione bayesiana per funzioni soggette …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.