La mia domanda principale riguarda il tentativo di capire come k-fold cross-validation si adatta al contesto di avere set di training / validation / testing (se si adatta a tutti in tale contesto).
Di solito, le persone parlano di dividere i dati in un set di addestramento, validazione e test - diciamo con un rapporto di 60/20/20 per il corso di Andrew Ng - per cui il set di validazione è usato per identificare parametri ottimali per il training del modello.
Tuttavia, se si volesse utilizzare la convalida incrociata di k-fold nella speranza di ottenere una misura di precisione più rappresentativa quando la quantità di dati è relativamente piccola, cosa comporta esattamente la convalida incrociata di k-fold in questa divisione 60/20/20 scenario?
Ad esempio, ciò significherebbe che in realtà uniremmo i set di addestramento e test (80% dei dati) e faremmo k-fold cross validation su di essi per ottenere la nostra misura di precisione (eliminando efficacemente con un "set di test" esplicito? In caso affermativo, quale modello di training utilizziamo a) in produzione eb) per utilizzare un set di validazione e identificare parametri di training ottimali? Ad esempio, una possibile risposta per aeb è forse quella di utilizzare il modello migliore.