Attualmente sto usando SVM e ridimensionando le mie funzioni di allenamento nella gamma di [0,1]. Prima inserisco / trasformo il mio set di allenamento e quindi applico la stessa trasformazione al mio set di test. Per esempio:
### Configure transformation and apply to training set
min_max_scaler = MinMaxScaler(feature_range=(0, 1))
X_train = min_max_scaler.fit_transform(X_train)
### Perform transformation on testing set
X_test = min_max_scaler.transform(X_test)
Supponiamo che una determinata funzione nel set di addestramento abbia un intervallo di [0,100] e che la stessa funzione nel set di test abbia un intervallo di [-10,120]. Nel set di addestramento tale funzione verrà ridimensionata in modo appropriato su [0,1], mentre nel set di test tale funzione verrà ridimensionata in un intervallo al di fuori di quello specificato per primo, qualcosa come [-0.1,1.2].
Mi chiedevo quali fossero le conseguenze delle funzionalità del set di test fuori dalla portata di quelle utilizzate per addestrare il modello? È un problema?