Questa è una questione di terminologia. A volte vedo che le persone si riferiscono a reti neurali profonde come "percetroni multistrato", perché? Un percettrone, mi hanno insegnato, è un classificatore a singolo strato (o regressore) con un'uscita di soglia binaria che utilizza un modo specifico di allenamento dei pesi (non di sostegno). Se l'output del perctron non corrisponde all'output target, aggiungiamo o sottraggiamo il vettore di input ai pesi (a seconda che il perctron abbia fornito un falso positivo o un falso negativo). È un algoritmo di apprendimento automatico piuttosto primitivo. La procedura di addestramento non sembra generalizzare a un caso a più livelli (almeno non senza modifiche). Una rete neurale profonda viene addestrata tramite backprop che utilizza la regola della catena per propagare i gradienti della funzione di costo attraverso tutti i pesi della rete.
Quindi, la domanda è. Un "percettrone multistrato" è la stessa cosa di una "rete neurale profonda"? In tal caso, perché viene utilizzata questa terminologia? Sembra essere inutilmente confuso. Inoltre, supponendo che la terminologia sia in qualche modo intercambiabile, ho visto la terminologia "perceptron multistrato" solo quando mi riferivo a una rete feed-forward composta da strati completamente collegati (nessun livello convoluzionale o connessioni ricorrenti). Quanto è ampia questa terminologia? Si userebbe il termine "perceptron multistrato" quando si fa riferimento, ad esempio, a Inception net? Che ne dite di una rete ricorrente che utilizza i moduli LSTM utilizzati nella PNL?