Questo proviene da una beta chiusa per l'intelligenza artificiale, con questa domanda pubblicata dall'utente numero 47. Tutto il merito.
Secondo Wikipedia ,
Le macchine Boltzmann possono essere viste come la controparte stocastica e generativa delle reti Hopfield.
Entrambe sono reti neurali ricorrenti che possono essere addestrate per apprendere schemi di bit. Quindi, quando presentato con un modello parziale, la rete recupererà il modello completo completo.
È stato dimostrato che le reti Hopfield hanno una capacità di 0,138 (ad esempio, è possibile richiamare dalla memoria ogni vettori a circa 138 bit ogni 1000 nodi, Hertz 1991).
Poiché una macchina Boltzmann è stocastica, la mia comprensione è che non mostrerebbe necessariamente sempre lo stesso schema quando la differenza di energia tra un modello memorizzato e un altro è simile. Ma a causa di questa stocastica, forse consente una memorizzazione più densa del modello, ma senza la garanzia che otterrai sempre il modello "più vicino" in termini di differenza di energia. Questo sarebbe vero? O una rete Hopfield sarebbe in grado di memorizzare più modelli?