Le competizioni Kaggle determinano le classifiche finali in base a un set di prove disputato.
Un set di test tenuto fuori è un campione; potrebbe non essere rappresentativo della popolazione modellata. Dato che ogni invio è come un'ipotesi, l'algoritmo che ha vinto la competizione potrebbe, per caso, aver finito per abbinare il set di test meglio degli altri. In altre parole, se si selezionasse un set di test diverso e si ripetesse la competizione, le classifiche rimarrebbero le stesse?
Per la società sponsor, questo non ha molta importanza (probabilmente i 20 principali contributi migliorerebbero la loro base). Sebbene, ironia della sorte, potrebbero finire per usare un modello al primo posto che è peggio degli altri primi cinque. Ma, per i partecipanti alla competizione, sembra che Kaggle sia in definitiva un gioco d'azzardo - la fortuna non è necessaria per inciampare sulla soluzione giusta, è necessario inciampare su quella che corrisponde al set di test!
È possibile cambiare la competizione in modo che tutte le migliori squadre che non possono essere statisticamente distinte vincano? Oppure, in questo gruppo, potrebbe vincere il modello più parsimonioso o computazionalmente economico?