Pytania otagowane jako kernel-trick

Metody uczenia się jądra są używane w uczeniu maszynowym do uogólnienia technik liniowych na sytuacje nieliniowe, zwłaszcza SVM, PCA i GP. Nie mylić z [wygładzaniem jądra], do szacowania gęstości jądra (KDE) i regresji jądra.

4
Jak rzutować nowy wektor na przestrzeń PCA?
Po przeprowadzeniu analizy głównego składnika (PCA) chcę rzutować nowy wektor na przestrzeń PCA (tzn. Znaleźć jego współrzędne w układzie współrzędnych PCA). Mam obliczony PCA w języku R użyciu prcomp. Teraz powinienem być w stanie pomnożyć mój wektor przez macierz obrotu PCA. Czy główne elementy tej macierzy powinny być ułożone w …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

3
Stosujesz „sztuczkę jądra” do metod liniowych?
Trik jądro jest stosowana w kilku modelach uczenia maszynowego (np SVM ). Po raz pierwszy został wprowadzony w artykule „Teoretyczne podstawy metody funkcji potencjalnej w uczeniu się rozpoznawania wzorców” w 1964 r. Definicja wikipedia mówi, że tak sposób zastosowania algorytmu klasyfikatora liniowego do rozwiązania problemu nieliniowego poprzez odwzorowanie pierwotnych obserwacji …

2
Jakie jest uzasadnienie funkcji kowariancji Matérna?
Funkcja kowariancji Matérna jest powszechnie stosowana jako funkcja jądra w procesie Gaussa. Jest tak zdefiniowane Cν(d)=σ221−νΓ(ν)(2ν−−√dρ)νKν(2ν−−√dρ)Cν(d)=σ221−νΓ(ν)(2νdρ)νKν(2νdρ) {\displaystyle C_{\nu }(d)=\sigma ^{2}{\frac {2^{1-\nu }}{\Gamma (\nu )}}{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}^{\nu }K_{\nu }{\Bigg (}{\sqrt {2\nu }}{\frac {d}{\rho }}{\Bigg )}} gdzie jest funkcją odległości (taką jak odległość euklidesowa), jest funkcją gamma, jest …



1
Jakie są zalety jądra PCA w porównaniu ze standardowym PCA?
Chcę zaimplementować algorytm w dokumencie, który używa jądra SVD do dekompozycji macierzy danych. Czytałem więc materiały na temat metod jądra i PCA jądra itp. Ale wciąż jest to dla mnie bardzo niejasne, szczególnie jeśli chodzi o szczegóły matematyczne, i mam kilka pytań. Dlaczego metody jądra? Lub jakie są zalety metod …
18 pca  svd  kernel-trick 


1
Jak zrozumieć efekt RBF SVM
Jak mogę zrozumieć, co robi jądro RBF w SVM? Rozumiem matematykę, ale czy jest sposób, aby poczuć, kiedy to jądro będzie przydatne? Czy wyniki z kNN byłyby powiązane z SVM / RBF, ponieważ RBF zawiera odległości wektorowe? Czy jest sposób, aby poczuć wielomianowe jądro? Wiem, że im wyższy wymiar, tym …
17 svm  kernel-trick 

6
Najszybsza implementacja SVM
Bardziej ogólne pytanie. Korzystam z SVM rbf do modelowania predykcyjnego. Myślę, że mój obecny program zdecydowanie potrzebuje przyspieszenia. Używam scikit learning z prostym do dokładnego wyszukiwania siatki + sprawdzania poprawności. Każdy przebieg SVM zajmuje około minuty, ale mimo wszystkich iteracji wciąż uważam, że jest zbyt wolny. Zakładając, że w końcu …

5
Jądro SVM: Chcę intuicyjnego zrozumienia mapowania do przestrzennej przestrzeni cech i tego, jak to umożliwia separację liniową
Próbuję zrozumieć intuicję stojącą za SVM jądra. Teraz rozumiem, jak działa liniowy SVM, dzięki czemu tworzona jest linia decyzyjna, która najlepiej dzieli dane. Rozumiem również zasadę przenoszenia danych do przestrzeni o większych wymiarach oraz sposób, w jaki może to ułatwić znalezienie liniowej linii decyzyjnej w tej nowej przestrzeni. Nie rozumiem, …

1
Zrozumienie regresji procesu Gaussa poprzez nieskończony wymiarowy widok funkcji bazowej
Często mówi się, że regresja procesu gaussowskiego odpowiada (GPR) bayesowskiej regresji liniowej z (być może) nieskończoną ilością funkcji bazowych. Obecnie staram się to szczegółowo zrozumieć, aby uzyskać intuicję, jakie modele mogę wyrazić za pomocą GPR. Czy uważasz, że to dobre podejście do zrozumienia GPR? W książce Procesy gaussowskie dla uczenia …

2
Jak udowodnić, że nie ma skończonej przestrzeni cech dla jądra Gaussa RBF?
Jak udowodnić, że dla radialnej funkcji bazowej nie jest ograniczony-wymiarowej przestrzeni funkcjaHtak, że w przypadku niektórychcp:Rn→Hmamyk(x,y)=⟨Φ(x),Φ(y)⟩?k(x,y)=exp(−||x−y||2)2σ2)k(x,y)=exp⁡(−||x−y||2)2σ2)k(x, y) = \exp(-\frac{||x-y||^2)}{2\sigma^2})HHHΦ:Rn→HΦ:Rn→H\Phi: \text{R}^n \to Hk(x,y)=⟨Φ(x),Φ(y)⟩k(x,y)=⟨Φ(x),Φ(y)⟩k(x, y) = \langle \Phi(x), \Phi(y)\rangle

3
Czy powinienem używać Kernel Trick, gdy tylko jest to możliwe, do danych nieliniowych?
Niedawno dowiedziałem się o użyciu sztuczki jądra, która odwzorowuje dane na przestrzenie o wyższych wymiarach, próbując zlinearyzować dane w tych wymiarach. Czy są jakieś przypadki, w których powinienem unikać stosowania tej techniki? Czy to tylko kwestia znalezienia właściwej funkcji jądra? W przypadku danych liniowych nie jest to oczywiście pomocne, ale …



Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.