Próbowałem zrozumieć różne algorytmy grupowania k-średnich, które są głównie zaimplementowane w stats
pakiecie R
języka.
Rozumiem algorytm Lloyda i algorytm online MacQueena. Sposób ich rozumienia jest następujący:
Algorytm Lloyda:
Początkowo wybiera się losowe obserwacje „k”, które będą służyć jako centroidy gromad „k”. Następnie w iteracji następują następujące kroki, aż centroidy zbiegną się.
- Obliczana jest odległość euklidesowa między każdą obserwacją a wybranymi centroidami.
- Obserwacje najbliższe każdemu z centroidów są oznaczone wewnątrz segmentów „k”.
- Średnia wszystkich obserwacji w każdym wiadrze służy jako nowe centroidy.
- Nowe centroidy zastępują stare centroidy, a iteracja powraca do kroku 1, jeśli stare i nowe centroidy nie zbiegły się.
Warunki zbieżności są następujące: stare i nowe centroidy są dokładnie identyczne, różnica między centroidami jest niewielka (rzędu 10 ^ -3) lub osiągnięto maksymalną liczbę iteracji (10 lub 100).
Algorytm MacQueena:
Jest to wersja online, w której pierwsze wystąpienia „k” są wybierane jako centroidy.
Następnie każde wystąpienie jest umieszczane w wiadrach w zależności od tego, który środek ciężkości znajduje się najbliżej tego wystąpienia. Odpowiedni środek ciężkości jest ponownie obliczany.
Powtarzaj ten krok, aż każda instancja zostanie umieszczona w odpowiednim wiadrze.
Ten algorytm ma tylko jedną iterację, a pętla działa dla instancji „x”
Algorytm Hartigan-Wong:
- Przypisz wszystkie punkty / wystąpienia do losowych segmentów i oblicz odpowiedni centroid.
- Zaczynając od pierwszej instancji, znajdź najbliższy środek ciężkości i przypisz wiadro. Jeśli segment zmienił się, należy ponownie obliczyć nowe centroidy, tj. Centroid nowo przypisanego segmentu i centroid starego przypisania segmentu, ponieważ są to dwa centroidy, na które zmiana ma wpływ
- Zapętlaj wszystkie punkty i zdobywaj nowe centroidy.
- Wykonaj drugą iterację punktów 2 i 3, która wykonuje operację czyszczenia i ponownie przypisuje zbłąkane punkty do prawidłowych segmentów.
Ten algorytm wykonuje 2 iteracje, zanim zobaczymy wynik konwergencji.
Nie jestem pewien, czy to, co myślę w punkcie 4 algorytmu Hartigan-Wong, jest poprawną metodą algorytmu. Moje pytanie brzmi, czy następująca metoda Hartigana-Wonga jest poprawna do implementacji k-średnich? Czy są tylko dwie iteracje dla tej metody? jeśli nie, jaki jest warunek konwergencji (kiedy przestać)?
Innym możliwym wyjaśnieniem implementacji, co rozumiem, jest.
- Przypisz wszystkie punkty / wystąpienia do losowych segmentów i oblicz odpowiedni centroid.
- Zaczynając od pierwszej instancji, znajdź najbliższy środek ciężkości i przypisz to wiadro. Jeśli segment zmienił się, należy ponownie obliczyć nowe centroidy, tj. Centroid nowo przypisanego segmentu i centroid starego przypisania segmentu, ponieważ są to dwa centroidy, na które zmiana ma wpływ.
- Po zmianie w wiadrze dla dowolnego punktu, wróć do pierwszej instancji i powtórz kroki ponownie.
- Iteracja kończy się, gdy wszystkie instancje są iterowane i żaden z punktów nie zmienia segmentów.
W ten sposób istnieje wiele iteracji, które zaczynają się od początku zestawu danych za każdym razem, gdy instancja zmienia segmenty.
Wszelkie wyjaśnienia byłyby pomocne i proszę dać mi znać, jeśli nie rozumiem żadnej z tych metod.