Domande taggate «loss-functions»

Una funzione utilizzata per quantificare la differenza tra i dati osservati e i valori previsti in base a un modello. La minimizzazione delle funzioni di perdita è un modo per stimare i parametri del modello.

2
Perché esistono due diverse formule / notazioni di perdita logistica?
Ho visto due tipi di formulazioni logistiche di perdita. Possiamo facilmente dimostrare che sono identici, l'unica differenza è la definizione dell'etichetta yyy . Formulazione / notazione 1, y∈{0,+1}y∈{0,+1}y \in \{0, +1\} : L(y,βTx)=−ylog(p)−(1−y)log(1−p)L(y,βTx)=−ylog⁡(p)−(1−y)log⁡(1−p) L(y,\beta^Tx)=-y\log(p)-(1-y)\log(1-p) dove p=11+exp(−βTx)p=11+exp⁡(−βTx)p=\frac 1 {1+\exp(-\beta^Tx)} , in cui la funzione logistica associa un numero realeβTxβTx\beta^T xa intervalli …





6
Qual è l'idea "fondamentale" dell'apprendimento automatico per la stima dei parametri?
L'idea "fondamentale" delle statistiche per la stima dei parametri è la massima probabilità . Mi chiedo quale sia l'idea corrispondente nell'apprendimento automatico. Qn 1. Sarebbe corretto affermare che l'idea "fondamentale" dell'apprendimento automatico per la stima dei parametri è: "Funzioni di perdita" [Nota: la mia impressione è che gli algoritmi di …

3
0-1 Spiegazione della funzione di perdita
Sto cercando di capire qual è lo scopo della funzione di perdita e non riesco proprio a capirlo. Quindi, per quanto ho capito, la funzione di perdita è per introdurre un qualche tipo di metrica con cui possiamo misurare il "costo" di una decisione errata. Quindi supponiamo di avere un …

1
Scelta tra le funzioni di perdita per la classificazione binaria
Lavoro in un settore problematico in cui le persone segnalano spesso ROC-AUC o AveP (precisione media). Tuttavia, recentemente ho trovato documenti che ottimizzano invece la perdita di log , mentre altri ancora riportano la perdita di cerniera . Mentre capisco come vengono calcolate queste metriche, sto facendo fatica a capire …

4
In quali condizioni coincidono gli stimatori dei punti bayesiani e frequentisti?
Con un precedente piatto, gli stimatori ML (frequentista - massima probabilità) e MAP (bayesiano - massimo a posteriori) coincidono. Più in generale, tuttavia, sto parlando di stimatori puntuali derivati ​​come ottimizzatori di alcune funzioni di perdita. ie (Bayesiana) x (x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} …



4
Panoramica completa delle funzioni di perdita?
Sto cercando di ottenere una prospettiva globale su alcune delle idee essenziali nell'apprendimento automatico e mi chiedevo se esiste un trattamento completo delle diverse nozioni di perdita (quadrato, log, cardine, proxy, ecc.). Stavo pensando a qualcosa sulla falsariga di una presentazione più completa e formale dell'eccellente post di John Langford …

5
Spiegazione della funzione di perdita Yolo
Sto cercando di capire la funzione di perdita di Yolo v2: λcoord∑i=0S2∑j=0B1objij[(xi−x^i)2+(yi−y^i)2]+λcoord∑i=0S2∑j=0B1objij[(wi−−√−w^i−−√)2+(hi−−√−h^i−−√)2]+∑i=0S2∑j=0B1objij(Ci−C^i)2+λnoobj∑i=0S2∑j=0B1noobjij(Ci−C^i)2+∑i=0S21obji∑c∈classes(pi(c)−p^i(c))2λcoord∑i=0S2∑j=0B1ijobj[(xi−x^i)2+(yi−y^i)2]+λcoord∑i=0S2∑j=0B1ijobj[(wi−w^i)2+(hi−h^i)2]+∑i=0S2∑j=0B1ijobj(Ci−C^i)2+λnoobj∑i=0S2∑j=0B1ijnoobj(Ci−C^i)2+∑i=0S21iobj∑c∈classes(pi(c)−p^i(c))2\begin{align} &\lambda_{coord} \sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{obj}[(x_i-\hat{x}_i)^2 + (y_i-\hat{y}_i)^2 ] \\&+ \lambda_{coord} \sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{obj}[(\sqrt{w_i}-\sqrt{\hat{w}_i})^2 +(\sqrt{h_i}-\sqrt{\hat{h}_i})^2 ]\\ &+ \sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{obj}(C_i - \hat{C}_i)^2 + \lambda_{noobj}\sum_{i=0}^{S^2}\sum_{j=0}^B \mathbb{1}_{ij}^{noobj}(C_i - \hat{C}_i)^2 \\ &+ \sum_{i=0}^{S^2} \mathbb{1}_{i}^{obj}\sum_{c \in classes}(p_i(c) - \hat{p}_i(c))^2 \\ \end{align} Se qualcuno può dettagliare la funzione.

2
È pratica comune ridurre al minimo la perdita media sui lotti anziché sulla somma?
Tensorflow ha un tutorial di esempio sulla classificazione di CIFAR-10 . Nell'esercitazione viene minimizzata la perdita media di entropia trasversale nel lotto. def loss(logits, labels): """Add L2Loss to all the trainable variables. Add summary for for "Loss" and "Loss/avg". Args: logits: Logits from inference(). labels: Labels from distorted_inputs or inputs(). …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.