Nell'apprendimento automatico, le persone parlano di funzione oggettiva, funzione di costo, funzione di perdita. Sono solo nomi diversi della stessa cosa? Quando usarli? Se non si riferiscono sempre alla stessa cosa, quali sono le differenze?
Nell'apprendimento automatico, le persone parlano di funzione oggettiva, funzione di costo, funzione di perdita. Sono solo nomi diversi della stessa cosa? Quando usarli? Se non si riferiscono sempre alla stessa cosa, quali sono le differenze?
Risposte:
Questi non sono termini molto rigidi e sono altamente correlati. Però:
Per farla breve, direi che:
Una funzione di perdita fa parte di una funzione di costo che è un tipo di funzione oggettiva.
Secondo il prof. Andrew Ng (vedere le diapositive a pagina 11),
La funzione h (X) rappresenta la tua ipotesi. Per i parametri di adattamento fissi theta, è una funzione delle funzioni X. Direi che questa può anche essere chiamata Funzione Obiettivo.
La funzione di costo J è una funzione dei parametri di adattamento theta. J = J (theta).
Secondo il libro di testo di Hastie et al. "Elements of Statistical Learning" , di p.37:
"Cerchiamo una funzione f (X) per prevedere i valori Y dati dell'ingresso X." [...] la funzione di perdita L (Y, f (X)) è "una funzione per penalizzare gli errori nella previsione",
Quindi sembra che "funzione di perdita" sia un termine leggermente più generale di "funzione di costo". Se cerchi "perdita" in quel PDF, penso che usino "funzione di costo" e "funzione di perdita" in qualche modo come sinonimi.
Anzi, p. 502
"La situazione [nel clustering] è in qualche modo simile alla specifica di una funzione di perdita o di costo nei problemi di previsione (apprendimento supervisionato)".
Forse questi termini esistono perché si sono evoluti in modo indipendente nelle diverse comunità accademiche. "Funzione oggettiva" è un vecchio termine usato nella ricerca operativa e in ingegneria matematica. La "funzione di perdita" potrebbe essere più utilizzata dagli statistici. Ma sto speculando qui.
Nelle parole di Andrew NG-
"Infine, la funzione di perdita è stata definita rispetto a un singolo esempio di allenamento. Misura quanto bene stai facendo su un singolo esempio di allenamento. Ora definirò qualcosa chiamato funzione di costo, che misura quanto bene stai facendo un intero set di addestramento. Quindi la funzione di costo J che viene applicata ai parametri W e B sarà la media con una delle m della somma della funzione di perdita applicata a ciascuno degli esempi di allenamento e turno. "
Dalla sezione 4.3 in "Apprendimento profondo" - Ian Goodfellow, Yoshua Bengio, Aaron Courville http://www.deeplearningbook.org/
"La funzione che vogliamo minimizzare o massimizzare è chiamata funzione oggettiva o criterio. Quando la stiamo minimizzando, possiamo anche chiamarla funzione di costo, funzione di perdita o funzione di errore. In questo libro, usiamo questi termini in modo intercambiabile, sebbene alcune pubblicazioni di apprendimento automatico attribuiscano un significato speciale ad alcuni di questi termini ".
In questo libro, almeno, perdite e costi sono gli stessi.
Per darti una risposta breve, secondo me sono sinonimi. Tuttavia, la funzione di costo viene utilizzata maggiormente nel problema di ottimizzazione e la funzione di perdita viene utilizzata nella stima dei parametri.
I termini funzioni di costo e perdita sono sinonimi che alcune persone chiamano anche funzione di errore. Lo scenario più generale è definire prima una funzione obiettiva, che vogliamo ottimizzare. Questa funzione obiettiva potrebbe essere quella di
In realtà per essere semplice Se hai m dati di allenamento come questo (x (1), y (1)), (x (2), y (2)),. . . (x (m), y (m)) Usiamo la funzione di perdita L (ycap, y) per trovare la perdita tra ycap e y di un singolo set di allenamento Se vogliamo trovare la perdita tra ycap e y di un intero set di allenamento che usiamo funzione di costo.
Nota: - ycap indica l'output del nostro modello E y indica l'output previsto
Nota: - Il merito va Andrew ng Risorsa: rete neurale di corso e apprendimento profondo
La funzione di perdita calcola l'errore per un singolo esempio di allenamento, mentre la funzione di costo è la media delle funzioni di perdita dell'intero set di addestramento.