Modele procesów gaussowskich są na ogół w porządku z wysokowymiarowymi zestawami danych (użyłem ich z danymi mikromacierzy itp.). Kluczem jest wybór dobrych wartości dla hiper-parametrów (które skutecznie kontrolują złożoność modelu w podobny sposób, jak robi to regularyzacja).
Metody rzadkie i pseudo-wejściowe są bardziej przeznaczone dla zestawów danych z dużą liczbą próbek (> około 4000 dla mojego komputera) niż z dużą liczbą funkcji. Jeśli masz wystarczająco mocny komputer, aby wykonać rozkład Cholesky'ego macierzy kowariancji (n przez n, gdzie n jest liczbą próbek), prawdopodobnie nie potrzebujesz tych metod.
Jeśli jesteś użytkownikiem MATLAB, zdecydowanie polecam zestaw narzędzi GPML i książkę Rasmussena i Williamsa jako dobre miejsca na początek.
JEDNAK, jeśli jesteś zainteresowany wyborem funkcji, to unikałbym lekarzy ogólnych. Standardowym podejściem do wyboru funkcji za pomocą GP jest użycie jądra automatycznego określania istotności (np. CovSEard w GPML), a następnie osiągnięcie wyboru funkcji poprzez dostrajanie parametrów jądra w celu maksymalizacji marginalnego prawdopodobieństwa. Niestety jest bardzo prawdopodobne, że skończy się to nadmiernym dopasowaniem marginalnego prawdopodobieństwa i skończy się modelem, który działa (prawdopodobnie znacznie) gorzej niż model z prostą sferyczną kowalencyjną funkcją podstawy (covSEiso w GPML).
Moje obecne badania koncentrują się obecnie na nadmiernym dopasowaniu w wyborze modelu i odkryłem, że jest to tak samo problem dla maksymalizacji dowodów w GP, jak i dla optymalizacji opartej na weryfikacji krzyżowej hiperparaneterów w modelach jądra, aby uzyskać szczegółowe informacje zobacz ten artykuł i ten .
Wybór funkcji dla modeli nieliniowych jest bardzo trudny. Często uzyskuje się lepszą wydajność poprzez trzymanie się modelu liniowego i stosowanie metod regulacyjnych typu L1 (Lasso / LARS / siatka elastyczna itp.) W celu uzyskania rzadkich lub losowych metod leśnych.