shabbychef podał bardzo jasne wyjaśnienie z perspektywy złożoności modelu. Spróbuję zrozumieć ten problem z innego punktu widzenia, na wypadek, gdyby mógł komukolwiek pomóc.
Zasadniczo chcemy zmaksymalizować margines w SVC. To samo dotyczy SVR, a my chcemy zmaksymalizować błąd prognozowania ze zdefiniowaną precyzją dla lepszego uogólnienia. Jeśli zminimalizujemy błąd prognozy zamiast zmaksymalizować, wynik prognozy dla nieznanych danych jest bardziej prawdopodobny. Pomyślmy o „maksymalizacji błędu prognozowania” w przypadku jednowymiarowym.e
W przypadku jednowymiarowym naszym celem jest maksymalizacja odległości od wszystkich punktów do linii trendu wewnątrz . Zauważ, że ustawiliśmy ograniczenie precyzji na , abyśmy mogli maksymalizować odległość, a nie minimalizować . Następnie przyjrzyjmy się bardzo prostemu równaniu odległości od punktu do linii.y = ω x + b e e(xi,yi)y=ωx+bee
|ωxi−yi+b|ω2+1−−−−−√
W tej chwili licznik jest ograniczony do . Aby zmaksymalizować odległość, staramy się zminimalizować .ωeω
Każdy może z łatwością rozszerzyć jednowymiarowy przypadek na przypadek N-wymiarowy, ponieważ równanie odległości zawsze będzie odległością euklidesową .
Dodatkowo możemy mieć recenzję problemu optymalizacji w SVR do porównania [1].
min12||ω||2
s.t.{yi−<ω,xi>−b≤e<ω,xi>+b−yi≥e
Dzięki.
[1] Smola, A. i B. Schölkopf. Samouczek dotyczący regresji wektora wsparcia. Statystyka i informatyka, t. 14, nr 3, sierpnia 2004, s. 199–222.