Przeglądam filmy z bezpłatnego internetowego kursu uczenia maszynowego Andrew Ng w Stanford. Omawia Gradient Descent jako algorytm do rozwiązywania regresji liniowej i pisania funkcji w Octave do jej wykonania. Przypuszczalnie mógłbym przepisać te funkcje w R, ale moje pytanie brzmi: czy funkcja lm () już nie daje wyników regresji liniowej? Dlaczego miałbym pisać własną funkcję spadku gradientu? Czy jest jakaś korzyść, czy jest to wyłącznie ćwiczenie edukacyjne? Czy lm () wykonuje opadanie gradientu?