Devo applicare la funzione di attivazione di Softmax al Perceptron multistrato in scikit. La documantazione di scikit sull'argomento dei modelli di rete neurale (supervisionato) afferma che "MLPClassifier supporta la classificazione multi-classe applicando Softmax come funzione di output". La domanda è: come applicare la funzione?
Nel codice di seguito, quando aggiungo il Softmax sotto il parametro di attivazione non accetta.
MLPClassifier(activation='Softmax', alpha=1e-05, batch_size='auto',
beta_1=0.9, beta_2=0.999, early_stopping=False,
epsilon=1e-08, hidden_layer_sizes=(15,), learning_rate='constant',
learning_rate_init=0.001, max_iter=200, momentum=0.9,
nesterovs_momentum=True, power_t=0.5, random_state=1, shuffle=True,
solver='lbfgs', tol=0.0001, validation_fraction=0.1, verbose=False,
warm_start=False)
Il codice di errore è:
ValueError: l'attivazione 'Softmax' non è supportata. Le attivazioni supportate sono ('identità', 'logistica', 'tanh', 'relu').
Esiste un modo per applicare la funzione di attivazione di Softmax per la classificazione multi-classe in scikit-learn?