Contesto: durante l'adattamento delle reti neurali all'attivazione di relu, ho scoperto che a volte la previsione diventa quasi costante. Credo che ciò sia dovuto alla morte dei neuroni relu durante l'allenamento, come indicato qui. ( Qual è il problema "morire ReLU" nelle reti neurali? )
Domanda: Quello che spero di fare è implementare un controllo nel codice stesso per verificare se i neuroni sono morti. Successivamente, il codice potrebbe rimontare la rete se necessario.
Come tale, qual è una buona citeria per verificare la presenza di neuroni morti? Attualmente sto pensando di verificare la bassa varianza nella previsione come citeria.
Se aiuta, sto usando keras.