Sto cercando di creare un rilevatore di oggetti che si verificano molto raramente (nelle immagini), pianificando di utilizzare un classificatore binario CNN applicato in una finestra scorrevole / ridimensionata. Ho costruito set di allenamento e test 1: 1 bilanciati positivi e negativi (è una cosa giusta da fare in questo caso tra l'altro?), E il classificatore sta andando bene su un set di test in termini di precisione. Ora voglio controllare il richiamo / la precisione del mio classificatore, quindi, per esempio, non etichetterà erroneamente troppe occorrenze di una classe di maggioranza.
La soluzione ovvia (per me) è quella di utilizzare la stessa perdita logistica che viene utilizzata ora, ma ponderare gli errori di tipo I e di tipo II in modo diverso moltiplicando la perdita in uno dei due casi su una costante, che può essere regolata. È giusto?
PS In un secondo momento questo equivale a ponderare alcuni campioni di allenamento più di altri. Basta aggiungere più di una classe per ottenere lo stesso penso.