Secondo la documentazione dell'oggetto StandardScaler in scikit-learn:
Ad esempio, molti elementi utilizzati nella funzione obiettivo di un algoritmo di apprendimento (come il kernel RBF di Support Vector Machines o i regolarizzatori L1 e L2 dei modelli lineari) presuppongono che tutte le funzioni siano centrate attorno a 0 e abbiano una varianza nello stesso ordine. Se una funzione presenta una varianza di ordini di grandezza maggiori di altre, potrebbe dominare la funzione obiettivo e rendere lo stimatore incapace di apprendere correttamente da altre funzionalità come previsto.
Dovrei ridimensionare le mie caratteristiche prima della classificazione. C'è un modo semplice per mostrare perché dovrei farlo? I riferimenti ad articoli scientifici sarebbero ancora migliori. Ne ho già trovato uno, ma probabilmente ce ne sono molti altri.