Jestem początkującym w uczeniu maszynowym. W SVM hiperpłaszczyzna oddzielająca jest zdefiniowana jako . Dlaczego mówimy wektor prostopadła do hiperpłaszczyzny rozdzielającej?
Jestem początkującym w uczeniu maszynowym. W SVM hiperpłaszczyzna oddzielająca jest zdefiniowana jako . Dlaczego mówimy wektor prostopadła do hiperpłaszczyzny rozdzielającej?
Odpowiedzi:
Geometrycznie wektor w jest skierowany prostopadle do linii określonej przez . Można to rozumieć w następujący sposób:
Najpierw weź . Teraz jest jasne, że wszystkie wektory, x , z zanikającym iloczynem wewnętrznym w, spełniają to równanie, tj. Wszystkie wektory prostopadłe do w spełniają to równanie.
Przetłumacz teraz hiperpłaszczyznę od początku na wektor a. Równanie dla płaszczyzny staje się teraz: , tzn. Widzimy, że dla przesunięcia b = a T w , które jest rzutem wektora a na wektor w .
Bez utraty ogólności możemy zatem wybrać prostopadłą do płaszczyzny, w którym to przypadku długość który reprezentuje najkrótszą, ortogonalną odległość między początkiem a hiperpłaszczyzną.
Dlatego mówi się, że wektor jest ortogonalny względem oddzielającej hiperpłaszczyzny.
Powodem, dla którego jest normalne dla hiperpłaszczyzny, jest to, że definiujemy to w ten sposób:
Załóżmy, że mamy (hiper) płaszczyznę w przestrzeni 3D. Niech będzie punktem na tej płaszczyźnie, tj. P 0 = x 0 , y 0 , z 0 . Dlatego wektor od początku ( 0 , 0 , 0 ) do tego punktu wynosi tylko < x 0 , y 0 , z 0 > . Załóżmy, że mamy dowolny punkt P ( x , y , z ) na płaszczyźnie. Wektor łączący Pa jest następnie podane przez: → P - → P 0 = < x - x 0 , y - y 0 , z - z 0 > Zauważ, że ten wektor leży w płaszczyźnie.
Teraz n jest normalny (prostopadłego) do wektora do samolotu. Dlatego: n ∙ ( → P - → P 0 ) = 0 więc: n ∙ → P - n ∙ → p 0 = 0 Należy zauważyć, że - n ∙ → p 0 jest tylko liczba i wynosi b w nasza sprawa, natomiast n jest tylko w i → P
leży na granicy decyzji i jest kierowana z do . Ponieważ produkt kropki wynosi zero musi być ortogonalny , a z kolei do granicy decyzji.