Sembra che ci siano due domande diverse qui, che proverò a dividere:
1) in che modo KS, smoothing del kernel, differisce da KDE, stima della densità del kernel? Bene, supponiamo che io abbia uno stimatore / più liscio / interpolatore
est( xi, fi -> gridj, estj )
e capita anche di conoscere il "reale" densitàf () in xi. Quindi correndo
est( x, densityf )
deve fornire una stima di densitàf (): un KDE. È possibile che KS e KDE siano valutati in modo diverso - criteri di scorrevolezza diversi, norme diverse - ma non vedo una differenza fondamentale. Cosa mi sto perdendo?
2) In che modo la dimensione influenza la stima o il livellamento, in modo intuitivo ? Ecco un esempio di giocattolo, solo per aiutare l'intuizione. Considera una casella di N = 10000 punti in una griglia uniforme e una finestra, una linea o un quadrato o un cubo, con W = 64 punti al suo interno:
1d 2d 3d 4d
---------------------------------------------------------------
data 10000 100x100 22x22x22 10x10x10x10
side 10000 100 22 10
window 64 8x8 4x4x4 2.8^4
side ratio .64 % 8 % 19 % 28 %
dist to win 5000 47 13 7
Qui "rapporto laterale" è il lato finestra / lato scatola e "dist per vincere" è una stima approssimativa della distanza media di un punto casuale nel riquadro rispetto a una finestra posizionata casualmente.
Tutto questo ha un senso ? (Un'immagine o un'applet sarebbe davvero d'aiuto: qualcuno?)
L'idea è che una finestra di dimensioni fisse all'interno di una scatola di dimensioni fisse abbia una vicinanza molto diversa rispetto al resto della scatola, in 1d 2d 3d 4d. Questo è per una griglia uniforme; forse la forte dipendenza dalla dimensione si ripercuote su altre distribuzioni, forse no. Comunque, sembra un forte effetto generale, un aspetto della maledizione della dimensionalità.