Autoencoders sono reti neurali che apprendono una rappresentazione compressa dell'input per ricostruirlo successivamente, quindi possono essere utilizzati per la riduzione della dimensionalità. Sono composti da un codificatore e un decodificatore (che possono essere reti neurali separate). La riduzione della dimensionalità può essere utile al fine di affrontare o attenuare i problemi relativi alla maledizione della dimensionalità, in cui i dati diventano scarsi ed è più difficile ottenere un "significato statistico". Pertanto, gli autoencoder (e gli algoritmi come il PCA) possono essere utilizzati per gestire la maledizione della dimensionalità.
Perché ci preoccupiamo della riduzione della dimensionalità specificatamente utilizzando gli autoencoder? Perché non possiamo semplicemente usare PCA, se lo scopo è la riduzione della dimensionalità?
Perché dobbiamo decomprimere la rappresentazione latente dell'input se vogliamo solo eseguire la riduzione della dimensionalità o perché abbiamo bisogno della parte del decodificatore in un autoencoder? Quali sono i casi d'uso? In generale, perché è necessario comprimere l'input per decomprimerlo successivamente? Non sarebbe meglio usare solo l'input originale (per cominciare)?