Background: molta della ricerca moderna negli ultimi 4 anni (post alexnet ) sembra essersi allontanata dall'uso della pre-generazione generativa per le reti neurali per ottenere risultati di classificazione all'avanguardia.
Ad esempio, i migliori risultati per mnist qui includono solo 2 articoli dei primi 50 che sembrano usare modelli generativi, entrambi i quali sono RBM. Gli altri 48 articoli vincitori riguardano diverse architetture discriminatorie di feed forward, con molti sforzi per trovare inizializzazioni di peso migliori / nuove e funzioni di attivazione diverse dal sigmoide usato nell'RBM e in molte reti neurali più vecchie.
Domanda: c'è qualche motivo moderno per usare più le macchine Boltzmann limitate?
Altrimenti, c'è una modifica di fatto che si può applicare a queste architetture feed forward per rendere generativi i loro strati?
Motivazione: chiedo perché alcuni dei modelli che vedo disponibili, di solito varianti sull'RBM, non hanno necessariamente ovvie controparti discriminatorie analoghe a questi strati / modelli generativi e viceversa. Per esempio:
CRBM (sebbene si possa sostenere che la CNN abbia usato architetture feed forward sia l'architettura analoga discriminatoria)
Inoltre, questi erano chiaramente anche pre alexnet, dal 2010, 2011 e 2009 rispettosamente.