Una tecnica comune dopo l'addestramento, la convalida e il test del modello di preferenza di Machine Learning consiste nell'utilizzare il set di dati completo, incluso il sottoinsieme di test, per formare un modello finale su cui distribuirlo , ad esempio un prodotto.
La mia domanda è: è sempre il meglio per farlo? Cosa succede se le prestazioni peggiorano effettivamente?
Ad esempio, ipotizziamo un caso in cui il modello abbia un punteggio di circa il 65% nella classificazione del sottoinsieme di test. Ciò potrebbe significare che il modello non è stato addestrato in modo adeguato OPPURE che il sottoinsieme di test è costituito da valori anomali. In quest'ultimo caso, allenare il modello finale con loro ridurrebbe le sue prestazioni e lo scoprirai solo dopo averlo distribuito.
Ridefinendo la mia domanda iniziale:
Se avessi una dimostrazione di una volta di un modello , come dispiegarlo su elettronica incorporata a bordo di un costoso esperimento missilistico, ti fideresti di un modello che è stato ri-addestrato con il sottoinsieme di test nella fase finale senza essere ri testato sulle sue nuove prestazioni?