Uczenie maszynowe (ML) w znacznym stopniu wykorzystuje techniki regresji liniowej i logistycznej. Powołuje się on także na technikach inżynierii (funkcja feature transform
, kernel
itp).
Dlaczego nic o variable transformation
(np power transformation
) wymienione w ML? (Na przykład, nigdy nie słyszę o włączeniu roota lub logu do funkcji, zwykle używają po prostu wielomianów lub RBF.) Podobnie, dlaczego eksperci ML nie dbają o transformacje cech dla zmiennej zależnej? (Na przykład nigdy nie słyszę o przeprowadzeniu transformacji logarytmu y; po prostu nie przekształcają y).
Edycje: Może pytanie nie jest zdecydowanie, moje prawdziwe pytanie brzmi: „czy transformacja mocy w zmienne nie jest ważna w ML?”