1
La perdita salta bruscamente quando decadimento il tasso di apprendimento con l'ottimizzatore Adam in PyTorch
Sto addestrando una auto-encoderrete con l' Adamottimizzatore (con amsgrad=True) e MSE lossper l'attività di separazione della sorgente audio a canale singolo. Ogni volta che decadimento del tasso di apprendimento di un fattore, la perdita di rete salta bruscamente e quindi diminuisce fino al successivo decadimento del tasso di apprendimento. Sto …