Per quanto ne so, i SOM in stile Kohonen hanno avuto un picco nel 2005 e non hanno visto tanto favore di recente. Non ho trovato alcun documento che affermi che i SOM sono stati inclusi in un altro metodo o si sono dimostrati equivalenti a qualcos'altro (a dimensioni superiori, comunque). Ma sembra che tSNE e altri metodi ottengano molto più inchiostro oggi, ad esempio in Wikipedia o in SciKit Learn, e SOM è menzionato più come un metodo storico.
(In realtà, un articolo di Wikipedia sembra indicare che i SOM continuano ad avere alcuni vantaggi rispetto ai concorrenti, ma è anche la voce più breve nell'elenco. EDIT: Per richiesta di gung, uno degli articoli a cui sto pensando è: Riduzione dimensionale non lineare Si noti che SOM ne ha meno scritto rispetto agli altri metodi. Non riesco a trovare l'articolo che menzionasse un vantaggio che i SOM sembrano conservare rispetto alla maggior parte degli altri metodi.)
Qualche intuizione? Qualcun altro ha chiesto perché i SOM non vengono utilizzati e ha ricevuto riferimenti da qualche tempo fa, e ho trovato procedimenti dalle conferenze SOM, ma mi chiedevo se l'ascesa di SVM o tSNE, et al, avesse semplicemente eclissato i SOM nell'apprendimento automatico pop.
EDIT 2: Per pura coincidenza, stavo leggendo un sondaggio del 2008 sulla riduzione della dimensionalità non lineare questa sera, e per esempio menziona solo: Isomap (2000), embedding localmente lineare (LLE) (2000), Hessian LLE (2003), Laplacian eigenmaps (2003) e semidefinite embedding (SDE) (2004).