Uno studente 'debole' (classe, predittore, ecc.) È solo uno che si comporta in modo relativamente scarso: la sua precisione è al di sopra della probabilità, ma a malapena. C'è spesso, ma non sempre, l'ulteriore implicazione che è computazionalmente semplice. Uno studente debole suggerisce anche che molte istanze dell'algoritmo vengono raggruppate (tramite boosting, insaccamento, ecc.) Per creare un classificatore di ensemble "forte".
È menzionato nell'articolo originale AdaBoost di Freund & Schapire:
Forse la più sorprendente di queste applicazioni è la derivazione di una nuova applicazione per il "potenziamento", ovvero la conversione di un algoritmo di apprendimento PAC "debole" che si comporta leggermente meglio delle ipotesi casuali in una con precisione arbitrariamente alta. - (Freund & Schapire, 1995)
ma penso che la frase sia in realtà più vecchia di così - ho visto persone citare un termine (?!) di Michael Kearns degli anni '80.
L'esempio classico di un discente debole è un moncone decisionale, un albero decisionale a un livello (1R o OneR è un altro discente debole comunemente usato; è abbastanza simile). Sarebbe alquanto strano definire un SVM uno "studente debole", anche in situazioni in cui si comporta male, ma sarebbe perfettamente ragionevole chiamare una singola decisione sconcertare uno studente debole anche quando si comporta sorprendentemente bene da solo.
Adaboost è un algoritmo iterativo e
indica in genere il numero di iterazioni o "round". L'algoritmo inizia addestrando / testando uno studente debole sui dati, ponderando equamente ciascun esempio. Gli esempi classificati erroneamente aumentano i loro pesi per il / i turno / i successivo / i, mentre quelli che sono correttamente classificati ottengono i loro pesi diminuiti.
T
Non sono sicuro che ci sia qualcosa di magico in . Nel documento del 1995, T è dato come parametro gratuito (cioè lo si imposta da soli).T=10T