Chciałbym udzielić prostej odpowiedzi.
Jaka jest główna różnica między oszacowaniem maksymalnego prawdopodobieństwa (MLE) a oszacowaniem metodą najmniejszych kwadratów (LSE)?
Jak skomentował @TrynnaDoStat, minimalizacja błędu kwadratu jest równoważna maksymalizacji prawdopodobieństwa w tym przypadku. Jak powiedziano w Wikipedii ,
W modelu liniowym, jeśli błędy należą do rozkładu normalnego, estymatory najmniejszych kwadratów są również estymatorami największego prawdopodobieństwa.
mogą być traktowane tak samo w twoim przypadku,
Pozwól mi to szczegółowo opisać. Ponieważ wiemy, że zmienna odpowiedzi ( y )
Yja= λ1Xja+ λ2)+ ϵja gdzie ϵ ∼ N( 0 , σ2))
ma model rozkładu błędu normalnego,
funkcją prawdopodobieństwa jest
L ( Y 1 , … , Y n ; λ 1 , λ 2 , σ 2 ) = 1

L ( Y1, … , Yn; λ1, λ2), σ2)) = 1( 2 π)n2)σne x p ( - 12 σ2)( ∑i = 1n( Yja- λ1Xja- λ2))2)) )
Oczywiście maksymalizacja L jest równoważna minimalizacji
∑i = 1n( Yja- λ1Xja- λ2))2)
To jest metoda najmniejszych kwadratów.
Dlaczego nie możemy użyć MLE do przewidywania wartości y w regresji liniowej i odwrotnie?
y