VAE è un framework che è stato proposto come un modo scalabile per eseguire EM variazionale (o inferenza variazionale in generale) su set di dati di grandi dimensioni. Sebbene abbia una struttura simile ad AE, ha uno scopo molto più ampio.
Detto questo, ovviamente, si possono usare VAE per apprendere rappresentazioni latenti. È noto che i VAE danno rappresentazioni con fattori districati [1] Ciò accade a causa di priori isotropi gaussiani sulle variabili latenti. Modellarli come gaussiani consente a ciascuna dimensione della rappresentazione di spingersi il più lontano possibile dagli altri fattori. Inoltre, [1] ha aggiunto un coefficiente di regolarizzazione che controlla l'influenza del precedente.
Mentre i gaussiani isotropi sono sufficienti per la maggior parte dei casi, per casi specifici, si potrebbe voler modellare i priori in modo diverso. Ad esempio, nel caso delle sequenze, si potrebbe voler definire i priori come modelli sequenziali [2].
Tornando alla domanda, come si può vedere, in precedenza si ottiene un controllo significativo su come vogliamo modellare la nostra distribuzione latente. Questo tipo di controllo non esiste nel solito framework AE. Questo è in realtà il potere dei modelli bayesiani stessi, i VAE lo stanno semplicemente rendendo più pratico e fattibile per set di dati su larga scala. Quindi, per concludere, se vuoi un controllo preciso sulle tue rappresentazioni latenti e su cosa vorresti che rappresentassero, allora scegli VAE. A volte, la modellazione precisa può catturare rappresentazioni migliori come in [2]. Tuttavia, se AE è sufficiente per il lavoro che fai, quindi vai con AE, è abbastanza semplice e semplice. Dopotutto, con gli AE stiamo semplicemente facendo un PCA non lineare.
[1] Apprendimento precoce del concetto visivo con apprendimento profondo senza supervisione, 2016
Irina Higgins, Loic Matthey, Xavier Glorot, Arka Pal, Benigno Uria, Charles Blundell, Shakir Mohamed, Alexander Lerchner
https://arxiv.org/abs/1606.05579
[2] Un modello variabile latente ricorrente per dati sequenziali, 2015
Junyoung Chung, Kyle Kastner, Laurent Dinh, Kratarth Goel, Aaron Courville, Yoshua Bengio
https://arxiv.org/abs/1506.02216