Di recente ho letto il commento di Yan LeCuns su convoluzioni 1x1 :
Nelle reti convoluzionali non esistono "livelli completamente connessi". Esistono solo livelli di convoluzione con kernel convoluzione 1x1 e una tabella di connessione completa.
È un fatto troppo raro che ConvNets non abbia bisogno di un input di dimensioni fisse. È possibile addestrarli su input che producono un singolo vettore di output (senza estensione spaziale) e quindi applicarli a immagini più grandi. Invece di un singolo vettore di output, si ottiene quindi una mappa spaziale dei vettori di output. Ogni vettore vede finestre di input in posizioni diverse sull'input. In quello scenario, i "livelli completamente connessi" agiscono davvero come convoluzioni 1x1.
Vorrei vedere un semplice esempio per questo.
Esempio
Supponiamo di avere una rete completamente connessa. Ha solo un livello di input e un livello di output. Il livello di input ha 3 nodi, il livello di output ha 2 nodi. Questa rete ha parametri. Per renderlo ancora più concreto, supponiamo che tu abbia una funzione di attivazione ReLU nel livello di output e nella matrice del peso
Quindi la rete è con .
Come dovrebbe essere lo strato convoluzionale essere lo stesso? Che cosa significa LeCun con "tabella di connessione completa"?
Immagino che per ottenere una CNN equivalente dovrebbe avere esattamente lo stesso numero di parametri. L'MLP dall'alto ha parametri.