Na kursie uczenia maszynowego dowiedziałem się, że jednym z powszechnych zastosowań PCA ( Principal Component Analysis ) jest przyspieszenie innych algorytmów uczenia maszynowego. Na przykład wyobraź sobie, że trenujesz model regresji logistycznej. Jeśli masz zestaw treningowy dla i od 1 do n i okazuje się, że wymiar wektora x jest bardzo duży (powiedzmy wymiary) może użyć PCA, aby uzyskać mniejszy wymiar (powiedzmy k wymiary) wektor cechy z. Następnie możesz wytrenować swój model regresji logistycznej na zestawie treningowym dla i od 1 do n. Trenowanie tego modelu będzie szybsze, ponieważ wektor cech ma mniej wymiarów.( z ( i ) , y ( i ) )
Nie rozumiem jednak, dlaczego nie można po prostu zmniejszyć wymiaru wektora operacji do wymiarów k, wybierając losowo k swoich funkcji i eliminując resztę.
Wektory Z to liniowe kombinacje wektorów cech. Ponieważ wektory z są ograniczone do powierzchni k-wymiarowej, możesz zapisać ak wyeliminowane wartości cech jako funkcję liniową k pozostałych wartości cech, a zatem wszystkie z mogą być utworzone przez liniowe kombinacje twoich cech k. Czy zatem model wytrenowany na zestawie treningowym z wyeliminowanymi funkcjami nie powinien mieć takiej samej mocy jak model wytrenowany na zestawie treningowym, którego wymiar został zmniejszony przez PCA? Czy to zależy tylko od rodzaju modelu i czy opiera się na jakiejś kombinacji liniowej?