Domande taggate «kernel-trick»

I metodi del kernel sono utilizzati nell'apprendimento automatico per generalizzare le tecniche lineari a situazioni non lineari, in particolare SVM, PCA e GP. Da non confondere con [smoothing del kernel], per la stima della densità del kernel (KDE) e la regressione del kernel.



1
Kernelized K Neighbor più vicino
Sono nuovo ai kernel e ho colpito un intoppo mentre provavo a kernelizzare kNN. Preliminari Io sto usando un kernel polinomiale: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Il tuo tipico kNN euclideo usa la seguente metrica della distanza: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Consenti a mappare …





1
Kernel Ridge Regressione Efficiency
La regressione della cresta può essere espressa come dove è l'etichetta prevista , la identifica, l'oggetto per cui stiamo cercando di trovare un'etichetta e la matrice di oggetti tale che: y Idd×dxXn×dnxi=(xi,1,...,Xi,d)∈Rdy^= ( X'X +a Id)- 1X xy^=(X′X+aId)−1Xx\hat{y} = (\mathbf{X'X} + a\mathbf{I}_d)^{-1}\mathbf{X}xy^y^\hat{y}iodId\mathbf{I}_dd× dd×dd \times dXx\mathbf{x}XX\mathbf{X}n × dn×dn \times dnnnXio= ( …



1
Oltre i chicchi di Fisher
Per un po ', sembrò che i kernel di Fisher potessero diventare popolari, in quanto sembravano essere un modo per costruire kernel con modelli probabilistici. Tuttavia, raramente li ho visti usati in pratica, e ho una buona autorità che tendono a non funzionare molto bene. Si basano sul calcolo delle …

2
Quale metodo del kernel fornisce i migliori output di probabilità?
Recentemente ho usato il ridimensionamento di Platt delle uscite SVM per stimare le probabilità di eventi di default. Alternative più dirette sembrano essere "Kernel logistic Regression" (KLR) e la relativa "Import Vector Machine". Qualcuno può dire quale metodo del kernel che fornisce output di probabilità è attualmente allo stato dell'arte? …



1
Valore “nascosto” della variabile categoriale della regressione lineare
Questo è solo un esempio che ho riscontrato più volte, quindi non ho dati di esempio. Esecuzione di un modello di regressione lineare in R: a.lm = lm(Y ~ x1 + x2) x1è una variabile continua. x2è categorico e ha tre valori, ad esempio "Basso", "Medio" e "Alto". Tuttavia, l'output …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.