Supponiamo che io abbia una semplice rete neurale a singolo strato, con n input e un singolo output (compito di classificazione binaria). Se imposto la funzione di attivazione nel nodo di output come funzione sigmoide, il risultato è un classificatore di regressione logistica.
In questo stesso scenario, se cambio l'attivazione dell'output in ReLU (unità lineare rettificata), la struttura risultante è uguale o simile a un SVM?
Se no perché?