Metody uczenia się jądra są używane w uczeniu maszynowym do uogólnienia technik liniowych na sytuacje nieliniowe, zwłaszcza SVM, PCA i GP. Nie mylić z [wygładzaniem jądra], do szacowania gęstości jądra (KDE) i regresji jądra.
Po przeprowadzeniu analizy głównego składnika (PCA) chcę rzutować nowy wektor na przestrzeń PCA (tzn. Znaleźć jego współrzędne w układzie współrzędnych PCA). Mam obliczony PCA w języku R użyciu prcomp. Teraz powinienem być w stanie pomnożyć mój wektor przez macierz obrotu PCA. Czy główne elementy tej macierzy powinny być ułożone w …
Trik jądro jest stosowana w kilku modelach uczenia maszynowego (np SVM ). Po raz pierwszy został wprowadzony w artykule „Teoretyczne podstawy metody funkcji potencjalnej w uczeniu się rozpoznawania wzorców” w 1964 r. Definicja wikipedia mówi, że tak sposób zastosowania algorytmu klasyfikatora liniowego do rozwiązania problemu nieliniowego poprzez odwzorowanie pierwotnych obserwacji …
Funkcja kowariancji Matérna jest powszechnie stosowana jako funkcja jądra w procesie Gaussa. Jest tak zdefiniowane Cν(d)=σ221−νΓ(ν)(2ν−−√dρ)νKν(2ν−−√dρ)Cν(d)=σ221−νΓ(ν)(2νdρ)νKν(2νdρ) {\displaystyle C_{\nu }(d)=\sigma ^{2}{\frac {2^{1-\nu }}{\Gamma (\nu )}}{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}^{\nu }K_{\nu }{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}} gdzie jest funkcją odległości (taką jak odległość euklidesowa), jest funkcją gamma, jest …
Jaka jest różnica między przeprowadzaniem regresji liniowej za pomocą Gaussian Radial Basis Function (RBF) a wykonywaniem regresji liniowej za pomocą jądra Gaussa?
Jaka jest różnica między regresją pierwotną , podwójną i regresją jądra ? Ludzie używają wszystkich trzech, a ze względu na odmienną notację, którą wszyscy używają z różnych źródeł, trudno mi się naśladować. Więc czy ktoś może mi powiedzieć prostymi słowami, jaka jest różnica między tymi trzema? Ponadto, jakie mogą być …
Chcę zaimplementować algorytm w dokumencie, który używa jądra SVD do dekompozycji macierzy danych. Czytałem więc materiały na temat metod jądra i PCA jądra itp. Ale wciąż jest to dla mnie bardzo niejasne, szczególnie jeśli chodzi o szczegóły matematyczne, i mam kilka pytań. Dlaczego metody jądra? Lub jakie są zalety metod …
Jeśli w jądrze PCA wybiorę liniowe jądro , czy wynik będzie inny niż zwykły liniowy PCA ? Czy rozwiązania są zasadniczo różne, czy istnieje jakaś dobrze zdefiniowana relacja?K(x,y)=x⊤yK(x,y)=x⊤yK(\mathbf{x},\mathbf{y}) = \mathbf x^\top \mathbf y
Jak mogę zrozumieć, co robi jądro RBF w SVM? Rozumiem matematykę, ale czy jest sposób, aby poczuć, kiedy to jądro będzie przydatne? Czy wyniki z kNN byłyby powiązane z SVM / RBF, ponieważ RBF zawiera odległości wektorowe? Czy jest sposób, aby poczuć wielomianowe jądro? Wiem, że im wyższy wymiar, tym …
Bardziej ogólne pytanie. Korzystam z SVM rbf do modelowania predykcyjnego. Myślę, że mój obecny program zdecydowanie potrzebuje przyspieszenia. Używam scikit learning z prostym do dokładnego wyszukiwania siatki + sprawdzania poprawności. Każdy przebieg SVM zajmuje około minuty, ale mimo wszystkich iteracji wciąż uważam, że jest zbyt wolny. Zakładając, że w końcu …
Próbuję zrozumieć intuicję stojącą za SVM jądra. Teraz rozumiem, jak działa liniowy SVM, dzięki czemu tworzona jest linia decyzyjna, która najlepiej dzieli dane. Rozumiem również zasadę przenoszenia danych do przestrzeni o większych wymiarach oraz sposób, w jaki może to ułatwić znalezienie liniowej linii decyzyjnej w tej nowej przestrzeni. Nie rozumiem, …
Często mówi się, że regresja procesu gaussowskiego odpowiada (GPR) bayesowskiej regresji liniowej z (być może) nieskończoną ilością funkcji bazowych. Obecnie staram się to szczegółowo zrozumieć, aby uzyskać intuicję, jakie modele mogę wyrazić za pomocą GPR. Czy uważasz, że to dobre podejście do zrozumienia GPR? W książce Procesy gaussowskie dla uczenia …
Jak udowodnić, że dla radialnej funkcji bazowej nie jest ograniczony-wymiarowej przestrzeni funkcjaHtak, że w przypadku niektórychcp:Rn→Hmamyk(x,y)=⟨Φ(x),Φ(y)⟩?k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})HHHΦ:Rn→HΦ:Rn→H\Phi: \text{R}^n \to Hk(x,y)=⟨Φ(x),Φ(y)⟩k(x,y)=⟨Φ(x),Φ(y)⟩k(x, y) = \langle \Phi(x), \Phi(y)\rangle
Niedawno dowiedziałem się o użyciu sztuczki jądra, która odwzorowuje dane na przestrzenie o wyższych wymiarach, próbując zlinearyzować dane w tych wymiarach. Czy są jakieś przypadki, w których powinienem unikać stosowania tej techniki? Czy to tylko kwestia znalezienia właściwej funkcji jądra? W przypadku danych liniowych nie jest to oczywiście pomocne, ale …
Wydaje się, że istnieje wiele algorytmów uczenia maszynowego, które opierają się na funkcjach jądra. SVM i NN, żeby wymienić tylko dwa. Więc jaka jest definicja funkcji jądra i jakie są wymagania, aby była ona ważna?
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.