Nei campi dell'elaborazione adattiva del segnale / machine learning, l'apprendimento profondo (DL) è una metodologia particolare in cui possiamo formare macchine rappresentazioni complesse.
XyWiofio
y = fN( . . . F2( f1( xTW1) W2) . . . WN)
Ora all'interno di DL ci sono molte architetture diverse : una di queste architetture è nota come rete neurale convoluzionale (CNN). Un'altra architettura è nota come percettrone multistrato (MLP), ecc. Architetture diverse si prestano a risolvere diversi tipi di problemi.
Un MLP è forse uno dei tipi più tradizionali di architetture DL che si possono trovare, ed è allora che ogni elemento di un livello precedente è collegato a ogni elemento del livello successivo. Sembra così:
WioW ∈ R10 x 20v ∈ R10 x 1u ∈ R1 x 20u = vTWW degli elementi del livello successivo.
Le MLP hanno perso il favore allora, in parte perché erano difficili da addestrare. Mentre ci sono molte ragioni per questa difficoltà, uno di questi è stato anche perché le loro connessioni dense non hanno permesso loro di scalare facilmente per vari problemi di visione del computer. In altre parole, non avevano l'equivalenza della traduzione integrata. Ciò significava che se c'era un segnale in una parte dell'immagine a cui dovevano essere sensibili, avrebbero dovuto imparare di nuovo come essere sensibili ad essa se quel segnale si mosse. Ciò ha sprecato la capacità della rete e quindi l'allenamento è diventato duro.
È qui che sono entrate le CNN! Ecco come si presenta:
Wio
È comune vedere "CNN" riferirsi a reti in cui abbiamo strati convoluzionali su tutta la rete e MLP alla fine, quindi questo è un avvertimento di cui essere consapevoli.