L'idea principale di k-più vicino-prossimo tiene conto dei punti più vicini e decide la classificazione dei dati a maggioranza dei voti. In tal caso, non dovrebbe avere problemi nei dati di dimensione superiore perché metodi come l' hashing sensibile alla località possono trovare in modo efficiente i vicini più vicini.
Inoltre, la selezione delle funzionalità con le reti bayesiane può ridurre la dimensione dei dati e facilitare l'apprendimento.
Tuttavia, questo articolo di revisione di John Lafferty sull'apprendimento statistico sottolinea che l'apprendimento non parametrico in spazi caratteristici ad alta dimensione è ancora una sfida e irrisolto.
Cosa non va?