Oto przykład, gdybym robił to w mplusie, co może być pomocne i uzupełnić bardziej wyczerpujące odpowiedzi:
Powiedzmy, że mam 3 ciągłe zmienne i chcę na ich podstawie zidentyfikować klastry. Określiłbym model mieszany (bardziej konkretnie w tym przypadku model profilu utajonego), zakładając niezależność warunkową (obserwowane zmienne są niezależne, biorąc pod uwagę członkostwo w klastrze) jako:
Model:
%Overall%
v1* v2* v3*; ! Freely estimated variances
[v1 v2 v3]; ! Freely estimated means
Uruchomiłbym ten model wiele razy, za każdym razem określając inną liczbę klastrów, i wybrałem rozwiązanie, które najbardziej mi się podoba (sam w sobie jest to rozległy temat).
Aby następnie uruchomić k-średnich, określiłbym następujący model:
Model:
%Overall%
v1@0 v2@0 v3@0; ! Variances constrained as zero
[v1 v2 v3]; ! Freely estimated means
Przynależność do klasy opiera się zatem na odległości od średnich obserwowanych zmiennych. Jak stwierdzono w innych odpowiedziach, wariancje nie mają z tym nic wspólnego.
Zaletą robienia tego w mplus jest to, że są to modele zagnieżdżone, dzięki czemu można bezpośrednio przetestować, czy ograniczenia powodują gorsze dopasowanie, czy nie, oprócz możliwości porównania niezgodności w klasyfikacji między dwiema metodami. Oba te modele, nawiasem mówiąc, można oszacować za pomocą algorytmu EM, więc różnica dotyczy naprawdę więcej modelu.
Jeśli myślisz w przestrzeni 3-D, to 3 oznacza punkt ... a wariancje trzy osie elipsoidy biegną przez ten punkt. Jeśli wszystkie trzy wariancje są takie same, otrzymasz kulę.