Il meraviglioso pacchetto libsvm fornisce un'interfaccia python e un file "easy.py" che cerca automaticamente i parametri di apprendimento (costo e gamma) che massimizzano l'accuratezza del classificatore. All'interno di un determinato insieme di parametri di apprendimento candidati, l'accuratezza è resa operativa dalla convalida incrociata, ma ritengo che ciò mina lo scopo della convalida incrociata. Cioè, nella misura in cui i parametri di apprendimento stessi possono essere scelti in un modo che potrebbe causare un eccesso di dati, ritengo che un approccio più appropriato sarebbe applicare la convalida incrociata a livello della ricerca stessa: eseguire la ricerca su un set di dati di training e quindi valutare la massima precisione dell'SVM risultante dai parametri di apprendimento scelti in modo definitivo mediante valutazione all'interno di un set di dati di test separato. O mi sto perdendo qualcosa qui?