Il focus di questa domanda
"Come possiamo ... elaborare i dati dalla vera distribuzione e i dati dal modello generativo nella stessa iterazione?
Analizzare la pubblicazione di base
Nella pagina di riferimento, Understanding Generative Adversarial Networks (2017) , il dottorando Daniel Sieta fa correttamente riferimento a Generative Adversarial Networks, Goodfellow, Pouget-Abadie, Mirza, Xu, Warde-Farley, Ozair, Courville e Bengio, giugno 2014 . Si tratta di stati astratti, "Proponiamo un nuovo quadro per la stima di modelli generativi attraverso un processo contraddittorio, in cui contemporaneamente formiamo due modelli ..." Questo documento originale definisce due modelli definiti come MLP (percetroni multistrato).
- Modello generativo, G
- Modello discriminatorio, D
Questi due modelli sono controllati in un modo in cui uno fornisce una forma di feedback negativo verso l'altro, quindi il termine contraddittorio.
- G è addestrato a catturare la distribuzione dei dati di una serie di esempi abbastanza bene da ingannare D.
- D è addestrato a scoprire se il suo input è la derisione di G o l'insieme di esempi per il sistema GAN.
(L'insieme di esempi per il sistema GAN viene talvolta definito campione reale, ma potrebbe non essere più reale di quelli generati. Entrambi sono array numerici in un computer, uno con origine interna e l'altro con origine esterna origine. Se quelli esterni provengono da una telecamera puntata su una scena fisica non è rilevante per il funzionamento GAN.)
Probabilmente, ingannare D è sinonimo di massimizzare la probabilità che D genererà tanti falsi positivi e falsi negativi quanti corretti le categorizzazioni, il 50% ciascuno. Nella scienza dell'informazione, questo vuol dire che il limite di informazione che D ha di G si avvicina a 0 mentre t si avvicina all'infinito. È un processo per massimizzare l'entropia di G dalla prospettiva di D, quindi il termine entropia incrociata.
Come si realizza la convergenza
Perché la funzione di perdita riprodotta dalla scrittura di Sieta del 2017 nella domanda è quella di D, progettata per minimizzare l'entropia incrociata (o correlazione) tra le due distribuzioni quando applicata all'intera serie di punti per un dato stato di allenamento.
H( ( x1, y1) , D ) = 1D ( x1)
C'è una funzione di perdita separata per G, progettata per massimizzare l'entropia crociata. Si noti che ci sono DUE livelli di granularità di allenamento nel sistema.
- Quella del gioco si muove in una partita a due giocatori
- Quello dei campioni di addestramento
Questi producono l'iterazione nidificata con l'iterazione esterna come segue.
- L'addestramento di G procede utilizzando la funzione di perdita di G.
- I modelli di input fittizi sono generati da G nel suo attuale stato di allenamento.
- L'addestramento di D procede utilizzando la funzione di perdita di D.
- Ripeti se l'entropia crociata non è ancora sufficientemente massimizzata, D può comunque discriminare.
Quando D alla fine perde il gioco, abbiamo raggiunto il nostro obiettivo.
- G ha recuperato la distribuzione dei dati di allenamento
- D è stata ridotta a inefficacia ("1/2 probabilità ovunque")
Perché è necessaria una formazione simultanea
Se i due modelli non fossero stati addestrati in modo avanti e indietro per simulare la concorrenza, la convergenza nel piano contraddittorio (iterazione esterna) non si verificherebbe sulla soluzione unica rivendicata nel documento del 2014.
Maggiori informazioni
Al di là della domanda, il prossimo elemento di interesse nel documento di Sieta è che "Il cattivo design della funzione di perdita del generatore" può portare a valori di gradiente insufficienti per guidare la discesa e produrre ciò che a volte viene chiamato saturazione. La saturazione è semplicemente la riduzione del segnale di feedback che guida la discesa nella retro-propagazione al rumore caotico derivante dall'arrotondamento in virgola mobile. Il termine deriva dalla teoria dei segnali.
Suggerisco di studiare l'articolo del 2014 di Goodfellow et alia (i ricercatori esperti) per conoscere la tecnologia GAN piuttosto che la pagina del 2017.