Stavo guardando una presentazione di uno specialista ML di un importante rivenditore, in cui avevano sviluppato un modello per prevedere eventi fuori stock.
Supponiamo per un momento che nel tempo il loro modello diventi molto preciso, non sarebbe in qualche modo "autolesionista"? Cioè, se il modello funziona davvero bene, allora saranno in grado di anticipare gli eventi esauriti ed evitarli, arrivando infine a un punto in cui hanno eventi scarsi o nulli. Ma in tal caso, non ci saranno abbastanza dati storici su cui eseguire il loro modello, o il loro modello verrà deragliato, perché gli stessi fattori causali utilizzati per indicare un evento di esaurimento non lo fanno più.
Quali sono le strategie per affrontare un simile scenario?
Inoltre, si potrebbe immaginare la situazione opposta: ad esempio un sistema di raccomandazione potrebbe diventare una "profezia che si autoavvera" con un aumento delle vendite di coppie di articoli guidate dall'output del sistema di raccomandazione, anche se i due articoli non sono proprio così relazionato.
Mi sembra che entrambi siano i risultati di una sorta di ciclo di feedback che si verifica tra l'output del predittore e le azioni che vengono eseguite sulla base di esso. Come si possono affrontare situazioni come questa?