Pytania otagowane jako k-nearest-neighbour

Klasyfikatory k-Nearest-Neighbor Te klasyfikatory są oparte na pamięci i nie wymagają dopasowania modelu. Biorąc pod uwagę punkt zapytania x0, znajdujemy k punktów szkoleniowych x (r), r = 1, ..., k najbliżej odległości x0, a następnie klasyfikujemy za pomocą głosów większości spośród k sąsiadów.

1
Kernelised k Nearest Neighbor
Jestem nowy w jądrach i wpadłem w kłopoty podczas próby jądra kNN. Czynności wstępne Używam wielomianowego jądra: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Twój typowy euklidesowy kNN używa następującej miary odległości: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) = \vert\vert \mathbf{x} - \mathbf{y} \vert\vert Niech f(x)f(x)f(\mathbf{x}) mapa xx\mathbf{x} do jakiejś wyższej wymiarowej przestrzeni cech. …

3
Wyjaśnienie wzoru na medianę najbliższego punktu początkowego N próbek z kuli jednostkowej
W Elements of Statistics Learning wprowadzono problem podkreślenia problemów z k-nn w przestrzeniach o dużych wymiarach. Istnieje punktów danych, które są równomiernie rozmieszczone w kuli jednostkowej wymiarowej.pNNNppp Mediana odległości od początku do najbliższego punktu danych jest wyrażona przez wyrażenie: d(p,N)=(1−(12)1N)1pd(p,N)=(1−(12)1N)1pd(p,N) = \left(1-\left(\frac{1}{2}\right)^\frac{1}{N}\right)^\frac{1}{p} Gdy , formuła rozkłada się do połowy promienia …


1
Zalety odległości Jeffries Matusita
Według niektórych artykułów, które czytam, powszechnie stosuje się odległość Jeffriesa i Matusity. Ale nie mogłem znaleźć wielu informacji na ten temat, z wyjątkiem poniższej formuły JMD (x, y) = ∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Jest podobny do odległości euklidesowej z wyjątkiem pierwiastka kwadratowego E (x, y) = ∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} Pod względem klasyfikacji odległość JM jest …

4
Przekleństwo wymiarowości: klasyfikator kNN
Czytam książkę Kevina Murphy'ego: Machine Learning - A probabilistic Perspective. W pierwszym rozdziale autor wyjaśnia przekleństwo wymiarowości i jest część, której nie rozumiem. Jako przykład autor stwierdza: Zastanów się, czy dane wejściowe są równomiernie rozmieszczone wzdłuż sześcianu jednostki D-wymiarowej. Załóżmy, że szacujemy gęstość etykiet klas, powiększając hiper sześcian wokół x, …

1
VC-Wymiar k-najbliższego sąsiada
Jaki jest wymiar VC algorytmu k-najbliższego sąsiada, jeżeli k jest równe liczbie użytych punktów treningowych? Kontekst: To pytanie zostało zadane na kursie, na który wybrałem, a odpowiedź brzmiała 0. Nie rozumiem jednak, dlaczego tak jest. Moją intuicją jest to, że Wymiar VC powinien wynosić 1, ponieważ powinno być możliwe wybranie …

1
Twierdzenie o braku obiadu i zgodność K-NN
W uczeniu obliczeniowym twierdzenie NFL stwierdza, że ​​nie ma uniwersalnego ucznia. Dla każdego algorytmu uczenia się istnieje rozkład, który powoduje, że uczeń wysyła hipotezę z dużym błędem, z dużym prawdopodobieństwem (choć istnieje hipoteza o niskim błędzie). Wniosek jest taki, że aby się uczyć, klasa hipotez lub dystrybucje muszą być ograniczone. …

2
K-najbliższy sąsiad ze zmiennymi ciągłymi i binarnymi
Mam zestaw danych z kolumnami a b c(3 atrybuty). ajest liczbowy i ciągły, ba jednocześnie cjest kategoryczny, każdy z dwoma poziomami. Używam K-Najbliższa metody sąsiadów do klasyfikowania ai bna c. Aby móc mierzyć odległości, przekształcam mój zestaw danych, usuwając bi dodając b.level1i b.level2. Jeśli obserwacja ima pierwszy poziom w bkategoriach, …

4
Dlaczego KNN nie jest „oparty na modelach”?
ESL rozdział 2.4 wydaje się klasyfikować regresję liniową jako „opartą na modelu”, ponieważ zakłada , podczas gdy nie podano podobnego przybliżenia dla najbliższych sąsiadów. Ale czy obie metody nie przyjmują założeń dotyczących ?f(x)≈x⋅βf(x)≈x⋅βf(x) \approx x\cdot\betaf(x)f(x)f(x) Później w 2.4 mówi nawet: Najmniejsze kwadraty zakładają, że jest dobrze przybliżone przez globalnie liniową …

4
Biorąc pod uwagę łańcuch MCD 10D, jak mogę określić jego tryb (y) w R?
Pytanie: Za pomocą 10-wymiarowego łańcucha MCMC powiedzmy, że jestem przygotowany na przekazanie macierzy losowań: 100 000 iteracji (wierszy) na 10 parametrów (kolumn). Jak najlepiej zidentyfikować tryby tylne? Szczególnie interesuje mnie wiele trybów. Tło:Uważam się za doświadczonego obliczeniowo statystykę, ale kiedy kolega zadał mi to pytanie, wstydziłem się, że nie mogłem …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.