Una funzione utilizzata per quantificare la differenza tra i dati osservati e i valori previsti in base a un modello. La minimizzazione delle funzioni di perdita è un modo per stimare i parametri del modello.
Ho visto due tipi di formulazioni logistiche di perdita. Possiamo facilmente dimostrare che sono identici, l'unica differenza è la definizione dell'etichetta yyy . Formulazione / notazione 1, y∈{0,+1}y∈{0,+1}y \in \{0, +1\} : L(y,βTx)=−ylog(p)−(1−y)log(1−p)L(y,βTx)=−ylog(p)−(1−y)log(1−p) L(y,\beta^Tx)=-y\log(p)-(1-y)\log(1-p) dove p=11+exp(−βTx)p=11+exp(−βTx)p=\frac 1 {1+\exp(-\beta^Tx)} , in cui la funzione logistica associa un numero realeβTxβTx\beta^T xa intervalli …
La gente dice che il margine debole SVM usa la funzione di perdita della cerniera: . Tuttavia, la funzione oggettiva effettiva che SVM del margine debole cerca di minimizzare è \ frac {1} {2} \ | w \ | ^ 2 + C \ sum_i \ max (0,1-y_i (w ^ …
C'è un thread simile qui (la funzione di costo della rete neurale non è convessa? ) Ma non sono stato in grado di capire i punti nelle risposte lì e il mio motivo per chiedere di nuovo sperando che questo chiarisca alcuni problemi: Se utilizzo somma di funzione di costo …
È possibile controllare il costo dell'errata classificazione nel pacchetto R randomForest ? Nel mio lavoro, i falsi negativi (ad esempio, la mancanza di errori che una persona potrebbe avere una malattia) sono molto più costosi dei falsi positivi. Il pacchetto rpart consente all'utente di controllare i costi di classificazione errata …
Questa domanda ha già risposte qui : In che modo la modifica della funzione di costo può essere positiva? (1 risposta) Cosa devo fare quando la mia rete neurale non impara? (5 risposte) Chiuso il mese scorso . Sto addestrando un modello (rete neurale ricorrente) per classificare 4 tipi di …
L'idea "fondamentale" delle statistiche per la stima dei parametri è la massima probabilità . Mi chiedo quale sia l'idea corrispondente nell'apprendimento automatico. Qn 1. Sarebbe corretto affermare che l'idea "fondamentale" dell'apprendimento automatico per la stima dei parametri è: "Funzioni di perdita" [Nota: la mia impressione è che gli algoritmi di …
Sto cercando di capire qual è lo scopo della funzione di perdita e non riesco proprio a capirlo. Quindi, per quanto ho capito, la funzione di perdita è per introdurre un qualche tipo di metrica con cui possiamo misurare il "costo" di una decisione errata. Quindi supponiamo di avere un …
Lavoro in un settore problematico in cui le persone segnalano spesso ROC-AUC o AveP (precisione media). Tuttavia, recentemente ho trovato documenti che ottimizzano invece la perdita di log , mentre altri ancora riportano la perdita di cerniera . Mentre capisco come vengono calcolate queste metriche, sto facendo fatica a capire …
Con un precedente piatto, gli stimatori ML (frequentista - massima probabilità) e MAP (bayesiano - massimo a posteriori) coincidono. Più in generale, tuttavia, sto parlando di stimatori puntuali derivati come ottimizzatori di alcune funzioni di perdita. ie (Bayesiana) x (x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} …
Sto cercando di usare la perdita quadrata per fare la classificazione binaria su un set di dati giocattolo. Sto usando il mtcarsset di dati, uso il miglio per gallone e il peso per prevedere il tipo di trasmissione. Il diagramma seguente mostra i due tipi di dati del tipo di …
Sto cercando di capire meglio la perdita di registro e come funziona, ma una cosa che non riesco a trovare è inserire il numero di perdita di registro in una sorta di contesto. Se il mio modello ha una perdita di registro di 0,5, va bene? Qual è considerato un …
Sto cercando di ottenere una prospettiva globale su alcune delle idee essenziali nell'apprendimento automatico e mi chiedevo se esiste un trattamento completo delle diverse nozioni di perdita (quadrato, log, cardine, proxy, ecc.). Stavo pensando a qualcosa sulla falsariga di una presentazione più completa e formale dell'eccellente post di John Langford …
Tensorflow ha un tutorial di esempio sulla classificazione di CIFAR-10 . Nell'esercitazione viene minimizzata la perdita media di entropia trasversale nel lotto. def loss(logits, labels): """Add L2Loss to all the trainable variables. Add summary for for "Loss" and "Loss/avg". Args: logits: Logits from inference(). labels: Labels from distorted_inputs or inputs(). …
La perdita della cerniera può essere definita usando e la perdita del log può essere definita come log ( 1 + exp ( - y i w T x i ) )max ( 0 , 1 - yiowTXio)max(0,1-yiowTXio)\text{max}(0, 1-y_i\mathbf{w}^T\mathbf{x}_i)log ( 1 + exp( - yiowTXio) )log(1+exp(-yiowTXio))\text{log}(1 + \exp(-y_i\mathbf{w}^T\mathbf{x}_i)) Ho le …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.