Stavo leggendo questo post del blog dal titolo: Il mondo finanziario vuole aprire le scatole nere di AI , in cui l'autore fa ripetutamente riferimento ai modelli ML come "scatole nere".
Una terminologia simile è stata utilizzata in diversi punti quando si fa riferimento ai modelli ML. Perché è così?
Non è che gli ingegneri ML non sappiano cosa succede all'interno di una rete neurale. Ogni layer viene selezionato dall'ingegnere ML che sa quale funzione di attivazione utilizzare, cosa fa quel tipo di layer, come viene propagato l'errore, ecc.