L'apprendimento automatico (ML) utilizza fortemente le tecniche di regressione lineare e logistica. Essa si basa anche su tecniche di ingegneria funzione ( feature transform
, kernel
, ecc).
Perché non si parla di variable transformation
(ad esempio power transformation
) in ML? (Ad esempio, non ho mai sentito parlare di root o log su feature, di solito usano solo polinomi o RBF.) Allo stesso modo, perché gli esperti di ML non si preoccupano delle trasformazioni di feature per la variabile dipendente? (Ad esempio, non ho mai sentito parlare della trasformazione del log di y; semplicemente non trasformano y.)
Modifiche: forse la domanda non è assolutamente, la mia vera domanda è "la trasformazione del potere in variabili non è importante in ML?"