Sto cercando di implementare livelli condivisi in Keras. Vedo che Keras ha keras.layers.concatenate
, ma non sono sicuro della documentazione sul suo utilizzo. Posso usarlo per creare più livelli condivisi? Quale sarebbe il modo migliore per implementare una semplice rete neurale condivisa come mostrato di seguito usando Keras?
Si noti che tutte le forme di input, output e layer condivisi per tutte e 3 le NN sono uguali. Esistono più livelli condivisi (e livelli non condivisi) nei tre NN. Gli strati colorati sono unici per ogni NN e hanno la stessa forma.
Fondamentalmente, la figura rappresenta 3 NN identici con più livelli nascosti condivisi, seguiti da più livelli nascosti non condivisi.
Non sono sicuro di come condividere più livelli come nell'esempio di Twitter, c'era solo un livello condiviso (esempio nel documento API).
model.fit([data1, data2], [labels1, labels2])
, questo sarà addestrato (la propagazione posteriore) come un singolo modello, giusto?