Molte funzioni di attivazione nelle reti neurali (sigmoide, tanh, softmax) sono monotone, continue e differenziabili (tranne che per un paio di punti, dove non esiste la derivata).
Capisco il motivo della continuità e della differenziabilità, ma non riesco davvero a capire un motivo della monotonisità.