Sto leggendo il libro di Kevin Murphy: Machine Learning - Una prospettiva probabilistica. Nel primo capitolo l'autore sta spiegando la maledizione della dimensionalità e c'è una parte che non capisco. Ad esempio, l'autore afferma:
Considerare che gli ingressi sono distribuiti uniformemente lungo un cubo unità D-dimensionale. Supponiamo di stimare la densità delle etichette delle classi facendo crescere un cubo iper attorno a x finché non contiene la frazione desiderata dei punti dati. La lunghezza del bordo prevista di questo cubo è e D ( f ) = f 1 .
È l'ultima formula che non riesco a mettere in testa. sembra che se vuoi coprire diciamo che il 10% dei punti rispetto alla lunghezza del bordo dovrebbe essere 0.1 lungo ogni dimensione? So che il mio ragionamento è sbagliato ma non riesco a capire il perché.