Ho addestrato una rete convoluzionale per classificare le immagini di un componente meccanico come buone o difettose. Sebbene la precisione del test fosse elevata, mi sono reso conto che il modello ha funzionato male su immagini con illuminazione leggermente diversa.
Le caratteristiche che sto cercando di rilevare sono sottili e l'illuminazione sembra far scattare il modello nel chiamare molti falsi negativi. La maggior parte, se non tutti, dei dati di addestramento e test provengono da immagini che sono state riprese con illuminazione diffusa. Le nuove immagini su cui ho provato la modella sono state scattate con luci focalizzate.
Sperando che l'equalizzazione dell'istogramma ( CLAHE ) potesse aiutare, ho fatto l'equalizzazione sulle immagini prima di inviarla al modello, l'ho fatto sia per l'allenamento che per i dati dei test. Il problema allora era che la precisione era alta, ma il modello sembrava aver appreso qualche altra correlazione tra le immagini e le etichette. Dopo l'equalizzazione, tutto nell'immagine si distingue, i difetti diventano ancora più sottili e difficili da rilevare anche per l'occhio umano.
La previsione del modello è cambiata anche quando lo stesso componente è stato girato con la stessa illuminazione ma con la luce con orientamenti diversi. Quindi la mia domanda è: cosa posso fare, alla fine dei dati o con il modello, in modo che diventi robusto per i cambiamenti nell'illuminazione (o lo stesso tipo di illuminazione ma i cambiamenti nell'orientamento dell'illuminazione)?