La pagina di Scikit Learn sulla selezione del modello menziona l'uso della validazione incrociata nidificata:
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
Due cicli di validazione incrociata vengono eseguiti in parallelo: uno dallo stimatore GridSearchCV per impostare la gamma e l'altro da cross_val_score per misurare le prestazioni di previsione dello stimatore. I punteggi risultanti sono stime imparziali del punteggio di previsione su nuovi dati.
Da quello che ho capito, clf.fit
userò la validazione incrociata in modo nativo per determinare la gamma migliore. In tal caso, perché dovremmo usare il cv nidificato come indicato sopra? La nota menziona che il cv nidificato produce "stime imparziali" del punteggio di previsione. Non è così anche per clf.fit
?
Inoltre, non sono stato in grado di ottenere le migliori stime di clf dalla cross_validation.cross_val_score(clf, X_digits, y_digits)
procedura. Potresti per favore consigliarti come farlo?