Risposte:
"Backprop" è lo stesso di "backpropagation": è solo un modo più breve per dirlo. A volte è abbreviato come "BP".
'Backprop' è l'abbreviazione di 'backpropagation of error' per evitare confusione quando si usa il termine backpropagation .
Fondamentalmente la backpropagation si riferisce al metodo per calcolare il gradiente della funzione di errore caso per caso rispetto ai pesi per una rete feedforward Werbos . E backprop si riferisce a un metodo di allenamento che utilizza backpropagation per calcolare il gradiente.
Quindi possiamo dire che una rete di backprop è una rete feedforward formata da backpropagation .
Il termine "backprop standard" è un eufemismo per la regola delta generalizzata che è il metodo di addestramento supervisionato maggiormente utilizzato.
Fonte: cos'è il backprop? alle FAQ del newsgroup Usenet comp.ai.neural-nets
Riferimenti:
Sì, come ha giustamente affermato Franck, "backprop" significa backpropogation, che viene spesso utilizzato nel dominio delle reti neurali per l'ottimizzazione degli errori.
Per una spiegazione dettagliata, vorrei sottolineare questo tutorial sul concetto di backpropogation di un ottimo libro di Michael Nielsen.
Nell'apprendimento automatico, il backpropagation (backprop, BP) è un algoritmo ampiamente utilizzato nella formazione di reti neurali feedforward per l'apprendimento supervisionato. Esistono generalizzazioni della backpropagation per altre reti neurali artificiali (ANN) e per le funzioni in generale - una classe di algoritmi denominata genericamente "backpropagation".
È un nome di fantasia per la regola della catena multivariabile.