Sfondo introduttivo
All'interno di una rete neurale convoluzionale, di solito abbiamo una struttura / flusso generale che assomiglia a questo:
- immagine di input (cioè un vettore 2D
x
)
(Il 1 ° livello convoluzionale (Conv1) inizia qui ...)
- contorta una serie di filtri (
w1
) lungo l'immagine 2D (ovveroz1 = w1*x + b1
esegui le moltiplicazioni del prodotto punto), dovez1
è 3D edb1
è bias. - applicare una funzione di attivazione (ad es. ReLu) per rendere
z1
non lineare (ad es.a1 = ReLu(z1)
), dovea1
è 3D.
(Il 2 ° livello convoluzionale (Conv2) inizia qui ...)
- contorta un insieme di filtri lungo le attivazioni appena calcolate (ovvero
z2 = w2*a1 + b2
esegui le moltiplicazioni del prodotto punto), dovez2
è 3D edb2
è bias. - applicare una funzione di attivazione (ad es. ReLu) per rendere
z2
non lineare (ad es.a2 = ReLu(z2)
), dovea2
è 3D.
La domanda
La definizione del termine "mappa caratteristica" sembra variare da letteratura a letteratura. In concreto:
- Per lo strato convoluzionale prima, fa corrisponde "funzione mappa" per il vettore di ingresso
x
, o il prodotto scalare di uscitaz1
, o le attivazioni di uscitaa1
, o il "processo" conversionex
aa1
, o qualcos'altro? - Allo stesso modo, per il 2 ° livello convoluzionale, la "mappa caratteristica" corrisponde alle attivazioni di input
a1
, o al prodotto di punti di outputz2
, o all'attivazione di outputa2
, o al "processo" convertitoa1
ina2
, o qualcos'altro?
Inoltre, è vero che il termine "mappa caratteristica" è esattamente uguale a "mappa attivazione"? (o in realtà significano due cose diverse?)
Riferimenti aggiuntivi:
Frammenti da reti neurali e apprendimento profondo - Capitolo 6 :
* Qui la nomenclatura viene utilizzata liberamente. In particolare, sto usando "feature map" per indicare non la funzione calcolata dallo strato convoluzionale, ma piuttosto l'attivazione dei neuroni nascosti emessi dallo strato. Questo tipo di abuso lieve della nomenclatura è abbastanza comune nella letteratura di ricerca.
Frammenti di visualizzazione e comprensione delle reti convoluzionali di Matt Zeiler :
In questo articolo introduciamo una tecnica di visualizzazione che rivela gli stimoli di input che eccitano le singole feature map su qualsiasi livello del modello. [...] Il nostro approccio, al contrario, fornisce una visione non parametrica dell'invarianza, mostrando quali schemi del set di addestramento attivano la mappa delle caratteristiche. [...] un'operazione di contrasto locale che normalizza le risposte tra le mappe delle caratteristiche. [...] Per esaminare una determinata attivazione di convnet, impostiamo tutte le altre attivazioni nel layer su zero e passiamo le mappe delle caratteristiche come input al layer deconvnet allegato. [...] Convnet utilizza non linearità relu, che rettificano le mappe delle caratteristiche garantendo così che le mappe delle caratteristiche siano sempre positive. [...] Convnet utilizza i filtri appresi per convolgere le mappe delle caratteristiche dal livello precedente. [...] Fig. 6, queste visualizzazioni sono rappresentazioni accurate del pattern di input che stimola la data map del modello [...] nel momento in cui le parti dell'immagine di input originale corrispondenti al pattern sono occluse, vediamo un netto calo di attività all'interno della map feature. [...]
Note: introduce anche il termine "mappa caratteristica" e "mappa caratteristica rettificata" in Fig 1.
Frammenti dal capitolo Stanford CS231n sulla CNN :
[...] Una pericolosa trappola che può essere facilmente notata con questa visualizzazione è che alcune mappe di attivazione possono essere tutte zero per molti input diversi, che possono indicare filtri morti e possono essere un sintomo di alti tassi di apprendimento [...] Attivazioni dall'aspetto tipico sul primo strato CONV (a sinistra) e sul quinto strato CONV (a destra) di un AlexNet addestrato che guarda l'immagine di un gatto. Ogni casella mostra una mappa di attivazione corrispondente ad alcuni filtri. Si noti che le attivazioni sono sparse (la maggior parte dei valori sono zero, in questa visualizzazione mostrata in nero) e principalmente locali.
Frammenti da A-Beginner's-Guide-to-Understanding-Convolutional-Neural-Networks
[...] Ogni posizione univoca sul volume di input produce un numero. Dopo aver fatto scorrere il filtro su tutte le posizioni, scoprirai che ciò che ti rimane è una matrice di numeri 28 x 28 x 1, che chiamiamo mappa di attivazione o mappa di funzionalità.
a1
,a2
ecc.). In Conv2, suppongo che chiamereia1
la mappa di attivazione dell'input ea2
la mappa di attivazione dell'output. In Conv1, Ix
l'immagine di input ea1
la mappa di attivazione dell'output.