Ho letto alcuni articoli sull'immaginazione manuale di immagini per "ingannare" una rete neurale (vedi sotto).
Questo perché le reti modellano solo la probabilità condizionale ?
Se una rete può modellare la probabilità congiunta p ( y , x ) , si verificheranno comunque casi del genere?
La mia ipotesi è che tali immagini generate artificialmente siano diverse dai dati di allenamento, quindi hanno una bassa probabilità . Quindi p ( y , x ) dovrebbe essere basso anche se p ( y | x ) può essere alto per tali immagini.
Aggiornare
Ho provato alcuni modelli generativi, non è stato utile, quindi immagino che questa sia una conseguenza dell'MLE?
Nel caso in cui la divergenza KL sia usata come funzione di perdita, il valore di dove p d a t a ( x ) è piccolo non influisce sulla perdita. Quindi, per un'immagine forzata che non corrisponde a p d a t a , il valore di p θ può essere arbitrario.
Aggiornare
Ho trovato un blog di Andrej Karpathy che mostra
Questi risultati non sono specifici di immagini, ConvNets e non sono neppure un "difetto" nel Deep Learning.
SPIEGAZIONE E CABLAGGIO DI ESEMPI AVVERSARI Le reti neurali profonde sono facilmente imbrogliate: previsioni di elevata fiducia per immagini irriconoscibili