Domande taggate «k-nearest-neighbour»

Classificatori k-più vicini-vicini Questi classificatori sono basati sulla memoria e non richiedono alcun modello per adattarsi. Dato un punto di interrogazione x0, troviamo i punti di addestramento k x (r), r = 1, ..., k più vicini alla distanza di x0, e quindi classifichiamo usando il voto di maggioranza tra i k vicini.

1
Kernelized K Neighbor più vicino
Sono nuovo ai kernel e ho colpito un intoppo mentre provavo a kernelizzare kNN. Preliminari Io sto usando un kernel polinomiale: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Il tuo tipico kNN euclideo usa la seguente metrica della distanza: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Consenti a mappare …

3
Spiegazione della formula per il punto più vicino mediano all'origine di N campioni dalla sfera unitaria
In Elements of Statistical Learning , viene introdotto un problema per evidenziare i problemi con k-nn in spazi ad alta dimensione. Esistono punti dati distribuiti uniformemente in una sfera di unità dimensionale.NNNppp La distanza mediana dall'origine al punto dati più vicino è data dall'espressione: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Quando , la …


1
Pro della distanza Jeffries Matusita
Secondo alcuni articoli che sto leggendo, la distanza di Jeffries e Matusita è comunemente usata. Ma non sono riuscito a trovare molte informazioni su di esso ad eccezione della formula seguente JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} È simile alla distanza euclidea ad eccezione della radice quadrata E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} La …



1
Teorema del No-Free-Lunch e coerenza di K-NN
Nell'apprendimento computazionale, il teorema della NFL afferma che non esiste uno studente universale. Per ogni algoritmo di apprendimento, esiste una distribuzione che fa sì che lo studente produca un'ipotesi con un errore grande, con alta probabilità (sebbene ci sia un'ipotesi di errore bassa). La conclusione è che per imparare, la …


4
Perché KNN non è "basato sul modello"?
Il capitolo 2.4 dell'ESL sembra classificare la regressione lineare come "basata sul modello", poiché assume , mentre non viene dichiarata un'approssimazione simile per i vicini k-più vicini. Ma entrambi i metodi non fanno ipotesi su ?f ( x )f( x ) ≈ x ⋅ βf(x)≈x⋅βf(x) \approx x\cdot\betaf( x )f(x)f(x) Più …



Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.