Questa domanda è in risposta a un commento che ho visto su un'altra domanda.
Il commento riguardava il programma del corso di Machine Learning su Coursera e sulla falsariga di "SVM non sono usati così tanto al giorno d'oggi".
Ho appena terminato da solo le lezioni pertinenti e la mia comprensione degli SVM è che sono un algoritmo di apprendimento robusto ed efficiente per la classificazione e che quando usano un kernel hanno una "nicchia" che copre il numero di funzionalità forse da 10 a 1000 e numero di campioni di addestramento forse da 100 a 10.000. Il limite per i campioni di addestramento è perché l'algoritmo di base ruota attorno all'ottimizzazione dei risultati generati da una matrice quadrata con dimensioni basate sul numero di campioni di addestramento, non sul numero di caratteristiche originali.
Anche il commento che ho visto fa riferimento ad alcuni cambiamenti reali dal momento che il corso è stato realizzato, e in tal caso, qual è quel cambiamento: un nuovo algoritmo che copre anche il "punto debole" di SVM, CPU migliori che significano che i vantaggi computazionali di SVM non valgono tanto ? O è forse opinione o esperienza personale del commentatore?
Ho provato a cercare, ad esempio, "sono macchine vettoriali di supporto fuori moda" e non ho trovato nulla che sottintendesse che sarebbero state abbandonate a favore di qualsiasi altra cosa.
E Wikipedia ha questo: http://en.wikipedia.org/wiki/Support_vector_machine#Issues . . . il principale punto critico sembra essere la difficoltà di interpretare il modello. Il che rende SVM perfetto per un motore di previsione black-box, ma non così buono per generare intuizioni. Non lo vedo come un grosso problema, solo un'altra cosa minore da prendere in considerazione quando si sceglie lo strumento giusto per il lavoro (insieme alla natura dei dati di formazione e attività di apprendimento, ecc.).