In Decision Trees, possiamo comprendere l'output della struttura ad albero e possiamo anche visualizzare come l'albero decisionale prende le decisioni. Quindi gli alberi delle decisioni hanno spiegabilità (il loro output può essere spiegato facilmente).
Abbiamo spiegabilità nelle reti neurali come con gli alberi decisionali?